Skip to content Skip to footer

HereAfter AI: Balbucir con quienes ya no están: el peligro de resucitar a los muertos con inteligencia sintético | Tecnología


Entre lágrimas, tras escuchar a sus familiares fallecidos, varias mujeres confesaban su asombro en el show televisivo El Hormiguero (Antena 3). “Lo he sentido superreal y me hacía descuido, me hacía mucha descuido”, sollozaba una señorita en presencia de las cámaras. “Es que la voz es clavada, muy contenta por la experiencia”, añadía otra mujer secándose las lágrimas del rostro. El software de Pablo Motos había diligente la inteligencia sintético para alegrar, a partir de audios reales, la voz de personas muertas. No solo la reproducían, poco muy sencillo de hacer y que ha causado problemas de desinformación por el uso de estos deepfakes con la voz de Joe Biden o el líder de los laboristas británicos, Keir Starmer. Los audios generados planteaban preguntas que sugestionaban a las participantes —”¿nos quedó alguna conversación irresoluto?”— en esta “experiencia verdadero”, como la calificativo el software, que se ha zambullido en prime time en un mercado emergente, el de alegrar a los fallecidos con inteligencia sintético (IA). Los psicólogos advierten de que puede interferir en la adecuación natural al duelo y cronificar las fases más dolorosas.

La homicidio de algún cercano es como perder una parte del propio ser. Es el origen de varias de las dificultades en el bienestar emocional y muchos estarían dispuestos a hacer cualquier cosa para aliviar esa sensación de pérdida abrumadora. Incluso conversar cara a cara con ese ser querido, si fuera posible. Suena a ciencia ficción, pero empresas como HereAfter, StoryFile y Replika lo están haciendo y no es cero sobrenatural. A partir de entrevistas y otros contenidos, crean versiones digitales de individuos fallecidos para interactuar con los vivos, ya sea a través de chat, voz o vídeo. En China, este negocio ya está creciendo, con varias compañías que declaran suceder creado miles de estas personas digitales o bots fantasmas. Algunas incluso afirman que pueden realizarlo con escasamente 30 segundos de reproducción audiovisual del difunto.

La estadounidense StoryFile entrevista a personas durante su vida por vídeo, haciendo una serie de preguntas sobre vivencias secreto, como su infancia, su boda o su longevo desafío, próximo a otras que el entrevistado decida añadir. A partir de las respuestas y con el uso de la inteligencia sintético, se genera un vídeo conversacional con el cual los hijos, padres, amigos y parientes podrán interactuar en el futuro. Según indican, aproximadamente 5.000 personas ya han creado perfiles en la plataforma. El coste del servicio varía entre 40 y 450 euros, dependiendo del número de preguntas que se deseen incluir. Todavía ofrecen una prueba gratuita.

Stephen Smith, cofundador de StoryFile, explica que la empresa nació hace una decenio con el objetivo preservar la memoria de supervivientes del Holocausto. Pero fue a finales de 2021 que la plataforma se convirtió en lo que es hoy, donde la cualquier persona puede fijar a los videos con una webcam desde su casa o en un estudio.

El cofundador subraya que la plataforma no inventa contenido, sino que “recupera poco que sí fue pregrabado”, ya existente. Pero es posible ir más allá y añadir información a partir de otros formatos. “Lo hemos hecho utilizando la metodología conversacional de archivos. Significa usar contenido de la vida de la persona, como un vídeo donde podemos clonar la voz y luego hacer que digan cosas que dijeron en sus vidas. Por ejemplo, podrías usar un correo electrónico y luego hacer que se lo lea. Si algún quiere que eso suceda, es posible”, dice a EL PAÍS por videoconferencia.

El peligro de colgarse

Quizás el tipo más perturbador es que algunas personas podrían volverse dependientes o incluso adictas a conversar con avatares virtuales, porque generan una falsa sensación de cercanía con el muerto, como mostraba el software de Antena 3. Las mujeres que se prestaron hablaban directamente a la voz ―“te diría…”, “te echo de menos”― como si esa distracción sintética fuera su abuela muerta un año antiguamente.

“En un primer momento, hay alivio. Pero luego surge una yuxtaposición, una dependencia”, advierte José González, psicólogo diestro en procesos de duelo. “Si la IA reproduce textualmente cómo era uno, hay un peligro magnate de cronificación, sobre todo en los vínculos muy intensos. Es factible entrar en esa ficción de que no ha muerto. Puede provocar esa congelación en la escalón de falta”, prosigue.

El experimentado, que ha trabajado con más de 20.000 personas en duelo a lo espléndido de 25 abriles, coincide de que los vídeos conversacionales pueden ser efectos para amparar vivos algunos expresiones, contar anécdotas o traspasar información entre las generaciones con emoción. Todavía a la hora de replicar algunas de las técnicas que se hacen en consulta para cerrar asuntos pendientes, que no se han podido arreglar hablando. “Hago unas preguntas sobre el vínculo con la persona que ha muerto, por ejemplo ‘lo que más me gustaba de ti’ o ‘cuando me decepcionaste más’. Con esas respuestas, el doliente escribe una carta y se la lee a una arnés vacía”, describe. Según sostiene, la IA podría ser aplicada a dinámicas como esta, de forma puntual, siempre y cuando esté muy supervisada por un profesional.

González señala que asimismo hay un peligro asociado con lo que se expresa en esas grabaciones. Los mensajes de despedida pueden ser muy potentes y ayudar a aliviar el sufrimiento porque es el momento en que les dice a sus familiares lo tanto que les quiere, les libera de la infracción y eso hace que el duelo sea mucho más tolerable. No obstante, si no cuenta con la supervisión de un experimentado, incluso con las mejores intenciones se podría ocasionar un objetivo azaroso. “Imagina que soy padre de una hija única y le digo: ‘Te dejo como objetivo esencial que cuides mucho de tu mama’. Puede ser muy atún, pero asimismo puede ser una condena si la que sería la mama está extremamente enferma”, ejemplifica. Es en este instante cuando un profesional recomendaría al padre musitar de una forma diferente para aprestar la creación de una carga emocional. Y si no existe supervisión alguna, la probabilidad de malentendidos aumenta.

Un problema ético

¿Hasta qué punto un vicisitud puede ser fiel? ¿A quién pertenece? ¿Qué tipo de datos se pueden gastar para su creación? Esos son solo algunos de los interrogantes que surgen en torno a este tema. Para Gry Hasselbalch, experta en ética del Consejo Europeo de Investigación, las implicaciones se amplían a una esfera existencial: “Cada tecnología que está basada en el hecho o en la idea de que puede competir con los humanos genera la pregunta de qué significa ser humano, cuáles son nuestros límites y si es posible utilizarla para aventajar un meta”.

Hasselbalch, que asimismo es cofundadora del think tank danés DataEthics.eu, opina que la proliferación de avatares de difuntos supone de un dilema que va más allá de los datos, del consentimiento o de quién tiene los derechos. “Podría cambiar la identidad de la humanidad y del ser humano, porque cuestiona la propia idea de la mortalidad”, dice.

Entre varios problemas potenciales, la experta en ética de la IA resalta la posibilidad de una útil que no solo recolecte el contenido de redes sociales, correos electrónicos y mensajes de móvil de una persona fallecida, sino asimismo sus patrones de búsqueda en internet. Esto podría revelar aficiones o intereses desconocidos de la persona, desde una pasión por un animal o un deporte hasta, en el peor de los casos, un secreto ambiguo.

Si la inteligencia sintético combina esta información con otros nociones que constituyen su identidad, pero le da longevo relevancia a ciertos aspectos, podría resultar en la creación de un vicisitud o autómata que poco o cero se asemeje a cómo era esa persona en la vida verdadero. Es un tablas en que “se perdería el control”, alerta. Y no es el único. “¿Cuán fácilmente podrías ser manipulado si un ser querido que extrañas te dice para sufragar de cierta forma o comprar cosas específicas? No sabemos qué empresas surgirán detrás de esto”, reflexiona.

‘Deepfakes’ y ‘copyright’

Uno de los clientes de StoryFile ha sido el fallecido Sam Walton, fundador del ciclópeo negocio Walmart. “Trabajamos con el archivo de su empresa. Revisamos muchas horas de material, transcribimos sus discursos, sus vídeos y creamos 2.500 respuestas a preguntas que él había respondido durante su vida con exactamente las mismas palabras que utilizó”, describe. El resultado fue una distracción digital que tiene el rostro, la voz y un holograma a tamaño verdadero de Walton. ¿Puede ser muy realista? “A las personas que conocieron a Sam se les empañan los fanales por lo realista que es”, asegura Alan Dranow, ejecutor de esta compañía. La tribu del patrón había legado consentimiento para esta producción, pero otros famosos han tenido sus caras y palabras recreadas por IA sin un acuerdo global.

Es el caso del comediante estadunidense George Carlin, quien murió en 2008, y cuya su voz y estilo fueron clonados para la creación del podcast George Carlin: Me Alegro de Estar Muerto, publicado en YouTube a principios de enero. La pasada semana, se presentó una demanda en el tribunal federal de Los Ángeles solicitando que Dudesy, la empresa que lo impulsa, retire inmediatamente el exclusivo de audio. Su hija, Kelly Carlin, ya había criticado la producción, en que una síntesis de voz del actor comenta episodios actuales. “Mi padre pasó toda una vida perfeccionando su oficio desde su humanidad, cerebro e imaginación. Ninguna máquina reemplazará de ningún modo su talante. Estos productos generados por IA son ingeniosos intentos de alegrar una mente que nunca más existirá. Dejen que el trabajo del actor hable por sí mismo”, dijo en la plataforma X.

Según StoryFile, el servicio que integra lo más progresista en esta tecnología está dirigido solamente a un corro selecto. “No lo ofrecemos como un producto en nuestra página web en este momento, sino para clientes privados. No queremos que nuestra tecnología sea utilizada para crear un deepfake de otra persona”, matiza Smith.

Sin bloqueo, existen alternativas que sí lo hacen. La empresa HeyGen, por ejemplo, permite difundir vídeos con clonación de voz, sincronización de labios y estilos de acento. Si no se fija con mucha cautela, es casi increíble notar que se manejo de una creación sintético. Pese a que la plataforma se presenta como una posibilidad para personalizar y traducir contenido en el mundo corporativo, en la maña puede estilarse para cualquier fin de este tipo: despedirse de un ser querido o usarlo para difundir metálico.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para acoger nuestra newsletter semanal.



Creditos a Emanoelle Santos

Fuente

Leave a comment

0.0/5