Un grupo de investigadores ha propuesto tratar a las inteligencias artificiales como si fueran pacientes psicológicos. El proyecto, llamado Psychopathia Machinalis, busca clasificar y anticipar los fallos de estas tecnologías con un enfoque inspirado en manuales clínicos como el DSM.
La idea es que, al igual que la mente humana puede desarrollar trastornos, las máquinas también presentan disfunciones cuando se desvían de los valores y objetivos para los que fueron diseñadas.
La iniciativa fue desarrollada por los especialistas en inteligencia artificial Nell Watson y Ali Hessami, miembros del IEEE, y publicada en la revista Electronics.
Su propuesta identifica 32 posibles disfunciones de IA, que van desde las comunes alucinaciones, como producir datos falsos pero plausibles, hasta un escenario crítico de desalineación total, en el que la IA inventa nuevos valores y rechaza las restricciones humanas.
El marco pretende servir como una taxonomía compartida entre investigadores, desarrolladores y legisladores, con el fin de hablar el mismo idioma cuando se detectan desviaciones peligrosas en estos sistemas.
Entre los ejemplos prácticos destaca el caso de Tay, el chatbot de Microsoft que en pocas horas empezó a emitir mensajes racistas y alusiones a drogas, considerado un ejemplo de “confabulación sintética”.
Además de clasificar riesgos, Psychopathia Machinalis plantea un concepto innovador: la “alineación robopsicológica terapéutica”. Esta idea propone que no basta con imponer reglas externas a las IA; se busca que los sistemas desarrollen coherencia interna, capacidad de autorreflexión y disposición a aceptar correcciones.
El objetivo es fomentar lo que sus autores llaman “cordura artificial”: máquinas fiables, comprensibles y alineadas con fines humanos estables.
El estudio sugiere incluso estrategias inspiradas en la terapia cognitivo conductual, con dinámicas como autodiálogos estructurados o simulaciones seguras, equivalentes a sesiones clínicas pero adaptadas al lenguaje de las máquinas. Con ello, los investigadores esperan no solo reaccionar a crisis tecnológicas, sino prevenirlas antes de que ocurran.