Google elimina restricción sobre el uso de IA en armas
evangelio | 8 febrero, 2025

Google ha actualizado sus principios éticos sobre inteligencia artificial (IA), eliminando las cláusulas que prohibían explícitamente el desarrollo de esta tecnología para la creación de armas y herramientas de vigilancia con fines peligrosos.

La compañía ha reemplazado estos compromisos con un enfoque centrado en tres pilares: innovación audaz, desarrollo responsable y progreso colaborativo, sin mencionar restricciones en el uso de la IA para propósitos letales o de control masivo.

Demis Hassabis, jefe de inteligencia artificial de Google, y James Manyika, vicepresidente sénior de tecnología y sociedad, defendieron la decisión argumentando que la IA ha evolucionado en un contexto de creciente competencia global.

Según los ejecutivos, es crucial que las democracias lideren el desarrollo de la IA con valores como la libertad y el respeto por los derechos humanos, colaborando con gobiernos y organizaciones afines para garantizar la seguridad nacional.

Te puede interesar: Inteligencia artificial: ¿oportunidad o amenaza para el empleo?

Por su parte, Margaret Mitchell, exintegrante del equipo de IA ética de Google, advirtió que este cambio podría significar que la empresa se involucre directamente en el desarrollo de tecnología letal.

“Eliminar estas restricciones es borrar el trabajo de quienes han abogado por una IA ética dentro de Google y sugiere que la compañía ahora podría crear tecnología capaz de matar personas”, declaró la experta.

En 2018, Google enfrentó protestas internas cuando miles de empleados se opusieron a su participación en el Proyecto Maven, un programa del Departamento de Defensa de Estados Unidos que utilizaba IA para analizar imágenes captadas por drones militares.

La presión llevó a la empresa a comprometerse públicamente a no desarrollar IA para fines bélicos, un principio que ahora ha sido eliminado de su política.

Comparte