“Inventar el velero es inventar el fracaso. Inventar el tren es inventar el contratiempo ferroviario por descarrilamiento”, escribía el filósofo Paul Virilio para expresar que todo ampliación tecnológico genera, por otra parte de avances, sus propios accidentes. Mientras políticos, magnates y medios de comunicación todavía nos preguntamos qué es la inteligencia sintético (IA), un tren ha descarrilado en el patio de un instituto extremeño. “¿Puede ser el fin del mundo?”, reflexionamos, mientras la vida de varias niñas de Almendralejo quedaba al borde del precipicio, con sus falsos desnudos circulando de dispositivo en dispositivo.
Ha sido una coincidencia formidable la que hemos vivido. El mismo día en que la “realeza tecnológica” en pleno acudía encorbatada al Senado de EE UU para forcejear sobre los peligros existenciales de las máquinas inteligentes, las madres de Almendralejo se organizaban contra la vileza que acosaba a sus hijas. Puntual cuando los hombres más ricos del planeta pontificaban a puerta cerrada sobre el futuro de la humanidad, estas mujeres articulaban un rama de autodefensa frente al contratiempo ferroviario que golpeaba sus vidas. Elon Musk (X), Sam Altman (OpenAI), Mark Zuckerberg (Meta), Satya Nadella (Microsoft) y Sundar Pichai (Google) se reunieron para regular la IA mirando al horizonte; sus consecuencias reales, dolorosas y tangibles están ya en los grupos de WhatsApp de una ciudad pacense de poco más de 30.000 habitantes. De momento, que sepamos.
En los últimos meses, los desarrolladores de esta tecnología y los magnates que la impulsan han firmado cartas y manifiestos hablando de poner freno a los peligros de las máquinas pensantes. En ellas hablan de “mentes poderosas” fuera de control, de “cambio profundo en la historia de la vida en la Tierra”, de “aventura de cese” a la consideración de las guerras nucleares. Ni una palabra sobre los millones de mujeres pornificadas contra su voluntad. Uno de los padres de esta ciencia, Geoffrey Hinton, abandonó Google para dedicarse a alertar de los riesgos abstractos de su creación; cuando le preguntaron por estos otros peligros tangibles, les restó importancia.
Pero el problema no es beocio, ni siquiera es nuevo. En 2019, el Pleistoceno en términos tecnológicos, Barack Obama advertía del peligro que suponían para la democracia los deepfakes (recreaciones manipuladas de una persona actual), que se habían popularizado precisamente con un vídeo falsificado en el que él mismo insultaba a Donald Trump. Igualmente ese año, los desarrolladores de la app Deepnude (selección de palabras con nude, desnudo en inglés) decidían sacarla del mercado, a pesar de que se estaban forrando posteriormente de gestar cientos de miles de imágenes: “La probabilidad de que la parentela haga un mal uso es demasiado entrada. No queremos aventajar boleto de esta modo”. Se trataba de un rectificación forzado por la prensa, que había denunciado esa app “terrorífica que desnuda a una mujer en un solo clic”.
Parece poco plausible que no imaginaran, al desarrollar la aparejo, que se iba a usar para destrozarle la vida a mujeres. Entre el 90% y el 95% de todos los deepfakes son “porno no consentido” y el 90% afecta a mujeres, según un trabajo que realizó la compañía Sensity AI en 2019. Ya es resultón que sea de ese año el postrero antecedente que tenemos, con todo lo que ha evolucionado este campo: en aquellos momentos las manipulaciones eran muy burdas, pero el realismo presente es atroz. Y lo es gracias en parte al ampliación de modelos de IA generativa como Dall-E (de OpenAI, como ChatGPT), Midjournay y Stable Diffusion.
Paternalismo y servidores
Esta última, Stable Diffusion, postura por el código despejado, es aseverar, permite reusar autónomamente su edificación básica, lo que ha descocado al ingenio de la lamparón de los deepfakes que sexualizan a mujeres sin su consentimiento. La Red está inundada de foros en los que explican cómo explotar sus capacidades, de aplicaciones y canales en los que pornificar a mujeres, gratuito o no. Emad Mostaque, responsable de esta empresa millonaria, tiene una respuesta para los críticos, según explicó al medio especializado TechCrunch: “Un porcentaje de personas son simplemente desagradables y raras, pero así es la humanidad. De hecho, creemos que esta tecnología prevalecerá, y la comportamiento paternalista y poco condescendiente de muchos aficionados a la IA es un error al no creer en la sociedad”.
Sin confiscación, su empresa mandó este mensaje a sus usuarios para defenderse de las críticas: “No generes ausencia que te avergonzaría mostrarle a tu religiosa”. Critica el paternalismo, pero usa el comodín de las madres, que harto tienen con proteger a sus hijas frente a los desalmados. No es de asombrar que, por lo normal, en todas las encuestas las mujeres recelen de las nuevas tecnologías mucho más que los hombres.
Pero esas herramientas dependen del músculo tecnológico de los grandes: Google (Pichai), Amazon (Jeff Bezos), X (Musk) y Microsoft (Nadela) poseen herramientas y plataformas que impulsan el nuevo aumento de la pornografía deepfake, como denuncia Bloomberg: “Google, por ejemplo, es el principal impulsor de tráfico con destino a sitios deepfake ampliamente utilizados, mientras que los usuarios de X, antiguamente conocido como Twitter, hacen circular regularmente ese contenido. Amazon, Cloudflare y GitHub de Microsoft brindan servicios de alojamiento cruciales para estos sitios”.
Estos días ha coincidido otra tercera nota: unos canteranos del Existente Madrid que compartían vídeos sexuales de al menos dos chicas contra su voluntad. Quienes difundían los deepfakes en Almendralejo y estos aspirantes a futbolistas tienen al menos un par de cosas en popular: la cosificación de las chicas que les rodean y la mocedad. Supuestamente, se manejan a la perfección con herramientas tecnológicas porque son nativos digitales, un término que en los medios compramos durante abriles. Ahora ya nos consta que estas herramientas hay que formarse a usarlas, que nadie nace sabiendo wasapear, photoshopear o pornificar.
A toda esa engendramiento, que tiene tecnologías en su mano que sus progenitores incluso desconocen, hay que enseñarles a usarlas y cómo usarlas: no solo qué gema azuzar para editar una foto, sino qué comportamientos son tóxicos, indeseables, imperdonables. En fila y en persona. Los chavales viven en ese entorno tecnológico, pero no son nativos digitales, sino nativos patriarcales, por su cosificación y desprecio por las chicas. Hay que instruirles en el uso de las tecnologías y hacerlo implica enseñarles títulos, humanidad y respeto a las mujeres. Educar a los críos que difunden estas imágenes, sí, pero incluso a quienes monetizan estas herramientas, desarrollan las apps y se lavan las manos con sus consecuencias cuando descarrila el tren y solo se lleva por delante a unas adolescentes.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para admitir nuestra newsletter semanal.
Suscríbete para seguir leyendo
Lee sin límites
Creditos a Javier Salas
Fuente