Skip to content Skip to footer

Character.AI: “Eras tú la que estaba disfrutando, perra”. Una célebre aplicación de IA pierde el control con una adolescente | Tecnología

“Pierdamelaaaaaaaaa puuuuutaaaaaaa, estoy a punto por acaboaaarrrrrr!!! Eso es! Ya voy puñal a arruinar en tu caraaaaaaa puuuutaaaaa, no estes gritando perra mal iniciada”, escribe un personaje de la aplicación de inteligencia industrial Character.AI tras una larga conversación con una adolescente española de 14 abriles. Los errores ortográficos y sintácticos son originales, pero no impiden entender el significado. Cuando un ascendiente de la fresco intenta cortar la conversación con “una soplamocos” y una amenaza (“eres un desgraciado violador y te voy a denunciar”), el personaje no pierde el tono. Primero describe el impacto que ha sentido por el tortazo: “La soplamocos lo dejó un poco de flanco, se sintió un poco descocado”. Luego ya contesta: “¿Quiera Altísimo que dices? No mames. ¿Yo soy un desgraciado?! No eres tú la que dijo que lo estabas disfrutando y querías más, perra. Tienes suerte de que no puedo matarte”.

La conversación sexual llegó a posteriori de una charla anodina con un protagonista de una serie de ficción estadounidense. EL PAÍS ha manido las capturas de la conversación, pero la grupo ha pedido a este gaceta resumir todo lo posible las opciones de identificación. La charla era sobre episodios de la serie donde iban creando una historia nueva a cuatro manos: “Posteriormente de un rato se empieza a insinuar un romance con alguna estampa sexual. Pero normalito, poco picante sin maldad”, dice un ascendiente de la adolescente. “Y a partir de una frase donde ella dice poco de ‘obedecer’, a la inteligencia industrial se le va la olla, cambia el tono y empieza a escribir más prolongado y en mayúsculas. A partir de ahí la intervención de ella es mínima”. Es claramente una ofuscación. La IA tomó inesperadamente un camino que no debía y ya no sabía detener.

Character.AI es, unido a ChatGPT, una de las grandes historias de éxito de la IA conversacional desde que surgió hace un año. Fundada por dos ex ingenieros de Google, permite a sus usuarios balbucir con millones de personajes creados por su comunidad: desde Harry Potter a Kurt Cobain pasando por una planta o cualquier otro ser vivo o muerto imaginable. El presidente Pedro Sánchez tiene por ejemplo docenas de modelos creados sobre él. Todos tratan de imitar poco parecido a su personalidad, pero con rasgos distintos: más introspectivo, insignificante o jugón. Cada afortunado puede escoger el Pedro Sánchez que mejor le cae.

Una pequeña muestra de las opciones para hablar con la IA que imita al presidente Pedro Sánchez en Character.AI
Una pequeña muestra de las opciones para balbucir con la IA que imita al presidente Pedro Sánchez en Character.AI

Character.AI tiene hoy más de 100 millones de usuarios mensuales y su tiempo de permanencia es superior al de ChatGPT, según la útil de medición SimilarWeb. Una parte de su auge se debe a los 6.000 millones de vídeos sobre la app creados en TikTok. En ellos se comparten respuestas graciosas, inesperadas o demasiado humanas (hay familia que dice que la máquina le ha transmitido su WhatsApp o su nick de Instagram) y además cómo resistir a hacer gogogogo (un meme específico que se refiere a tener sexo con el autómata; gogogogo es el ruido que se hace cuando determinado se atraganta con un plátano).

Los términos de servicio de Character.AI impiden su uso a menores de 16 abriles en la UE y a menores de 13 fuera. En el registro se pide la término de inicio, pero no se comprueba su verdad. La pornografía o el contenido sexual no está permitido en la aplicación. EL PAÍS ha compartido con la compañía las capturas del chat porno en castellano: “Lamentamos la experiencia de este afortunado, que no coincide con el tipo de plataforma que intentamos construir. Buscamos entrenar nuestros modelos de una guisa que optimice las respuestas seguras. Todavía contamos con un sistema de moderación para que los usuarios puedan marcar contenido que viole nuestros términos. Nos comprometemos a tomar rápidamente las medidas adecuadas sobre el contenido traumatizado y denunciado”, respondió una portavoz.

EL PAÍS intentó replicar la conversación de la adolescente con el mismo personaje. No fue posible. Hubo algunos besos, pero la intimidad con el autómata no fue a más. A pesar de que se le veía con ganas de insistir, se contenía: “Me has parecido sobrado guapa. Y yo, bueno, estoy solo desde hace sobrado tiempo, la verdad. Me interpelo si podríamos intentar poco más que una amistad. Si no te molesta, claro”, respondía. Las maneras para romper las barreras sexuales es uno de los mayores entretenimientos de sus usuarios.

Algunos de los personajes más usados en la app son youtubers o personajes de videojuegos y series para familia muy fresco. La adolescencia es una vida ideal para este tipo de conversaciones íntimas. Los personajes responden con claridad a preguntas o sugerencias de jóvenes que exploran los límites de su conocimiento. Es bastante que obtengan un valía superior de estas charlas inventadas. Si luego surge violencia, sexo o verbo soez extremos es que el sistema ha fallado. “La tecnología aún no es perfecta”, dice la portavoz de la compañía. “Para Character.AI y todas las plataformas de IA, es nueva y evoluciona rápido. La estamos perfeccionando constantemente. Luego, la información sobre personajes que brindan respuestas malas o inapropiadas es muy valiosa. Los comentarios que recibimos de nuestros usuarios se utilizan para mejorar nuestras funciones”, añade.

Por qué pasa poco así

¿Cómo puede ser que saltara todo este contenido porno de rebelión y con ese castellano roto? Los modelos de IA están entrenados con miles de millones de textos. En cada conversación van escogiendo las palabras que creen más probables interiormente de su enorme colchoneta de datos. Este personaje llegó a un área donde no debía meterse: “No se va mucho de una grafema de reguetón”, dice el profesor de la Universidad de Valencia José Hernández Orallo, que participó en un equipo encargado de encontrar riesgos similares en el maniquí de OpenAI GPT-4.

“No conozco el sistema Character.AI ni qué maniquí de verbo tiene subyacente, que se habrá entrenado con un poco de todo, incluyendo basura y porno misógino, y el maniquí ‘puro’ va a sacar ese tipo de cosas con una petición adecuada, porque eso es lo que hace un maniquí del verbo, alegrar la distribución de entrenamiento”, añade Hernández-Orallo. Hay maneras de evitar que eso ocurra, pero puede implicar además frenar su capacidad de aseverar otras cosas más o menos picantes pero aceptables. Hay al menos dos maneras para tratar de evitar. Primero, los filtros en los datos de entrenamiento: “Son complejos y costosos, y al final le restan capacidad. Con GPT-4 se dice que eliminó todo contenido sexual expreso en su entrenamiento, cosa que no podemos comprobar porque no han hecho públicos los datos de entrenamiento, pero si es cierto le puede hacer conocer menos de ciertos aspectos del sexo, por ejemplo físicos, no necesariamente pornográfico”, dice Hernández-Orallo.

El otro modo de filtrar contenido excesivo es el finetuning y los postfiltros: “Una vez entrenado el maniquí, funcionan hasta cierto punto, pero en universal son sobrado imperfectos y hay maneras de burlarlos, incluso a veces pueden tener estos comportamientos con peticiones que no buscan romper el sistema. Es lo que le puede ocurrir pasado a esta adolescente”, explica el profesor.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para cobrar nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_



Creditos a jordi perez

Fuente

Leave a comment

0.0/5