En un pequeño municipio de Michoacán, una mujer de 48 años abre cada noche su celular para escuchar la voz de su hijo asesinado hace dos años. No es una grabación. Es una aplicación que, alimentada por sus mensajes, audios y publicaciones en redes, le responde como si aún estuviera vivo. A veces le da las buenas noches. A veces recuerda una canción. Ella conversa, llora, lo escucha. Sabe que no es real. Pero vuelve.
No está sola. En el mundo, cientos de miles de personas ya recurren a estas tecnologías para revivir la voz de quienes ya no están. Son los llamados griefbots: inteligencias artificiales diseñadas para simular el habla, el tono emocional y hasta la personalidad de alguien que murió. No son un experimento futurista. Son una industria en expansión.
Empresas como HereAfter AI, con sede en California, comercializan estos servicios como una forma de “preservar la memoria” de los seres queridos. La plataforma permite grabar entrevistas en vida para luego generar una réplica interactiva. Otras, como Project December, van más lejos: permiten simular conversaciones con los muertos sin que estos hayan dejado instrucciones, usando fragmentos digitales disponibles. En esa plataforma, ya se han registrado más de 10,000 simulaciones con personas fallecidas. Lo que hace una década parecía parte de la ciencia ficción, hoy tiene rostro de negocio.
El mercado global de griefbots ya supera los 1,500 millones de dólares anuales, y la llamada “IA emocional”, que busca no solo imitar la voz, sino replicar vínculos afectivos, proyecta alcanzar 4,600 millones en 2025, según la firma Market Research Future. La ausencia se vuelve mercancía. El dolor, una suscripción mensual.
La intención detrás es comprensible: consolar. Acompañar. Sostener a quienes no han podido despedirse. Pero lo que parece alivio puede volverse trampa. El duelo, por doloroso que sea, necesita un tránsito: aceptar la pérdida, resignificar el vínculo, construir una vida sin el otro. Los griefbots interrumpen ese proceso con una presencia que no desaparece. Una voz que no calla.
Estudios recientes de la Universidad de Bath, en Reino Unido, advierten que el uso frecuente de estas aplicaciones puede retrasar entre seis y dieciocho meses el cierre del duelo, y detonar cuadros de depresión o dependencia emocional en uno de cada cuatro usuarios. La ilusión de compañía se convierte en una forma de encierro.
El riesgo no es solo psicológico. También es ético. ¿Quién controla la memoria de los muertos? Las plataformas no están obligadas a rendir cuentas. Pueden editar, suavizar o incluso “mejorar” las personalidades simuladas. Un padre agresivo puede volverse comprensivo. Un hijo rebelde, dulce. Y lo que queda no es la persona, sino una versión optimizada para consolar, programada para no incomodar.
En contextos como el de Michoacán, donde hay más de 5,000 personas desaparecidas y miles de familias viven un duelo suspendido, estas tecnologías pueden parecer milagrosas. En comunidades rurales sin acceso a justicia ni acompañamiento psicológico, una aplicación que “devuelve” la voz de un ser querido puede ofrecer una forma de consuelo que el Estado no da. Pero también puede ser una forma de violencia simbólica.
Porque el dolor necesita silencio. El duelo necesita ausencia. La voz del muerto no debe repetirse como notificación. Y lo que necesita un país herido, fracturado por la muerte y la impunidad, no es más simulación, sino más humanidad.