En medio de advertencias sobre los peligros inminentes de la superinteligencia artificial proliferan, Sam Altman, conocido como el padre de ChatGPT, alertó sobre los riesgos que dicha tecnología podría representar para el futuro de la humanidad.
Hasta ahora, la inteligencia artificial (IA) ha sido entendida como una herramienta que optimiza procesos y tareas, acelerando la capacidad de procesamiento en comparación con el intelecto humano.
Sin embargo, la posibilidad de desarrollar una superinteligencia, que operaría a un nivel muy superior a nuestra capacidad cognitiva, plantea inquietudes que merecen ser analizadas.
Las preocupaciones de Altman giran en torno al control que ciertos grupos podrían ejercer sobre esa poderosa herramienta.
Te puede interesar: WhatsApp y sus nuevas funciones con Inteligencia Artificial
En su opinión, uno de los mayores riesgos radica en cómo la superinteligencia, si no se democratiza, podría ser monopolizada por los más ricos, consolidando aún más la desigualdad social.
Los puntos críticos que Altman destaca incluyen:
- Surgimiento de una tecnología no democratizada: La posibilidad de que el acceso a la superinteligencia esté reservado para unos pocos.
- Elevados costes de acceso: Los costos prohibitivos que podrían limitar su disponibilidad, exacerbando la brecha entre clases sociales.
- Insuficiente estructura: La falta de un marco regulatorio adecuado para gestionar los avances en IA.
- Guerras por el control: La lucha entre diferentes grupos por dominar esa potente herramienta, lo que podría derivar en conflictos.
A pesar de que los riesgos pueden parecer más concretos, la simple idea de que la IA supere el razonamiento humano permanece como una amenaza latente.