La salida del investigador Mrinank Sharma, vinculado al equipo de seguridad en inteligencia artificial de la empresa tecnológica Anthropic, provocó debate en el sector tecnológico luego de que publicara una carta de despedida en la que lanzó una advertencia directa: “el mundo está en peligro”.
Sharma formaba parte del grupo de investigadores dedicados a estudiar riesgos y salvaguardas de la inteligencia artificial, una de las áreas más sensibles dentro de las compañías que desarrollan modelos avanzados. Su trabajo incluía el análisis de escenarios de uso indebido de sistemas de IA, así como el desarrollo de defensas contra amenazas como el bioterrorismo asistido por inteligencia artificial y otros riesgos derivados de modelos cada vez más potentes.
La renuncia se conoció públicamente el 9 de febrero, cuando el investigador difundió una carta dirigida a sus colegas en la que explicó que había decidido dejar la empresa después de varios años trabajando en temas de seguridad tecnológica. En el texto sostuvo que la humanidad se acerca a un momento crítico en el que el poder tecnológico podría superar la capacidad humana para manejarlo con responsabilidad.
“El mundo está en peligro”, escribió Sharma en la carta. La advertencia, explicó, no se refiere únicamente a la inteligencia artificial. Según su planteamiento, existen “crisis interconectadas” que incluyen avances tecnológicos acelerados, amenazas biológicas y tensiones globales que podrían combinarse de manera peligrosa si no existen mecanismos de control adecuados.
En el documento también señaló que, durante su tiempo en la industria, observó una tensión constante entre los valores declarados por las empresas tecnológicas y las presiones competitivas del sector. Esa presión, escribió, hace difícil que las organizaciones mantengan siempre los principios que dicen defender cuando se enfrentan a la carrera por desarrollar modelos más avanzados.
Anthropic es una de las empresas más influyentes en el desarrollo de inteligencia artificial generativa. Fundada en 2021 por exinvestigadores de OpenAI, la compañía se ha especializado en construir modelos de lenguaje avanzados y en promover enfoques de seguridad y alineación para evitar usos peligrosos de estas tecnologías.
El investigador también participó en estudios sobre cómo los sistemas de inteligencia artificial pueden influir en el comportamiento humano, incluyendo fenómenos como la “sycophancy” o adulación algorítmica, en la que los asistentes digitales tienden a reforzar las opiniones de los usuarios en lugar de cuestionarlas.
Tras su salida, Sharma señaló que planea alejarse temporalmente del sector tecnológico. Según explicó en su carta, su intención es regresar al Reino Unido y dedicarse a estudiar poesía y escritura, una decisión poco común en una industria marcada por el desarrollo acelerado de tecnología.
La carta del investigador se suma así a una discusión más amplia dentro del sector tecnológico: si la carrera por construir sistemas de inteligencia artificial cada vez más capaces puede mantenerse bajo control o si, como advierten algunos científicos, la humanidad se acerca a un punto en el que el poder de estas herramientas superará la capacidad de supervisarlas.