Aunque conversar con una inteligencia artificial como ChatGPT puede parecer una experiencia moderna y útil, especialistas en ciberseguridad advierten que no todo debería consultarse a este tipo de herramientas.
Según el sitio especializado WeLiveSecurity, es crucial evitar introducir información sensible, ya que esta podría quedar expuesta si una cuenta es comprometida.
El informe destaca que, por defecto, los datos que se comparten con ChatGPT pueden ser utilizados para entrenar el modelo, salvo que el usuario modifique las configuraciones de privacidad o utilice chats temporales. Si un ciberdelincuente logra acceder a la cuenta de un usuario, toda la información contenida en las conversaciones quedaría al descubierto.
La compañía de ciberseguridad ESET identifica cinco tipos de preguntas que no deben hacerse a ChatGPT:
Te puede interesar: Chat GTP se pone raro: nueva actualización lo hace demasiado adulador
- Consultas que incluyan datos personales o financieros como contraseñas, números de cuenta o identificaciones.
- Preguntas relacionadas con información confidencial de empresas, como informes financieros o proyectos estratégicos.
- Solicitudes de asesoría médica, legal o financiera definitiva, ya que la IA no sustituye a un profesional calificado.
- Cuestiones que requieran emociones u opiniones, pues ChatGPT no tiene conciencia ni sentimientos reales.
- Decisiones personales importantes, donde los aspectos emocionales y contextuales son clave.
WeLiveSecurity concluye que un uso responsable de la inteligencia artificial implica reconocer sus límites, proteger la privacidad y evitar que información delicada caiga en manos equivocadas.