Skip to content Skip to footer

Almendralejo: “Todos podemos ser víctimas y los daños son irreparables”: cómo los ‘deepfakes’ han inundado el planeta | Tecnología

Artificial intelligence
Una imagen generada por inteligencia fabricado.

Los deepfakes, reproducciones hiperrealistas que la inteligencia fabricado ha llevado a límites inauditos de accesibilidad y difusión, lo inundan todo, como demuestra el caso de las recreaciones falsas de desnudos de adolescentes en Almendralejo (Badajoz) esta semana. “Todos podemos ser víctimas. Internet es la selva. No hay control y no es un entretenimiento: es un delito”, advierte la presidenta de la coalición extremeña de padres y madres de alumnos Freapa, Maribel Rengel. El referencia más citado, realizado por Deeptrace, rastreó hasta medio millón de archivos falsos en la red mundial con un crecimiento de casi el 100% cada seis meses. Pero es solo el trabajo de una entidad. El prominencia auténtico se desconoce. Sí se sabe que el 96% es pornografía y que estas creaciones han saltado del ámbito de la imagen a la voz, a los textos, a los documentos y al examen facial, o la combinación de todos, hasta convertirse en uno de los vectores emergentes de fraude más preocupantes a partir de una tecnología aún sin regular.

El Instituto Europeo de Normas de Telecomunicaciones (ETSI, por sus siglas en inglés) advierte en uno de los informes más completos y actualizados de los peligros del “cada vez más posible” uso de la inteligencia fabricado en la creación de archivos falsos. La ETSI, formada por más de 900 entidades de todo ámbito, alerta: “Adecuado a los avances significativos en la aplicación de la inteligencia fabricado a la coexistentes y modificación de datos, han surgido nuevas amenazas que pueden conducir a riesgos sustanciales en diversos entornos que van desde la difamación personal y la transigencia de cuentas bancarias utilizando identidades falsas (mediante ataques a los procedimientos de autenticación biométrica) hasta campañas para influir en la opinión pública”. Estos son los principales objetivos:

Pornografía. Danielle Citron, profesora de derecho en la Universidad de Boston y autora de Crímenes de odio en el ciberespacio (Hate crimes in cyberspace), afirma: “La tecnología deepfake se usa como pertrechos contra las mujeres al insertar sus rostros en la pornografía. Es aterrador, vergonzoso, degradante y silenciador. Los vídeos de sexo deepfake dicen a las personas que sus cuerpos no son suyos y pueden dificultar sus relaciones en renglón, la producción o mantenimiento de un trabajo o que se sientan seguras”.

Rengel lo comparte tras el caso que ha afectado a varios institutos de su comunidad. “La sensación es de vulnerabilidad y es muy difícil de controlar. Los daños son irreparables. Pueden arruinar la vida de una pupila”, afirma la representante extremeña para exigir, de forma urgente, un pacto de Estado que regule el uso de esta tecnología.

Estos ataques consisten en la difusión de vídeos, imágenes, audio o texto falsos en las redes sociales para arruinar la reputación de la víctima o humillarla. El referencia de Deeptrace calculaba el número de reproducciones de este material en más de 134 millones. Mujeres conocidas han sido víctima de estas prácticas desde hace primaveras. La cantante Rosalía ha sido la última española famosa de una larga directorio internacional que encabezaron Emma Watson y Natalie Portman.

Pero como advierte Rengel, “nadie está desocupado”. A asalto de clic, en plataformas en extenso o en sistemas de correo cifrada se pueden encontrar aplicaciones y páginas que ofrecen “desnudar a cualquiera” en segundos. Advierten de que es para mayores de 18 y que no se pueden usar fotos de una persona sin su consentimiento, aunque no lo comprueban, descargan la responsabilidad en el heredero y afirman que el objetivo es “el entretenimiento”.

El creador de contenidos Brandon Ewing, conocido como Atrioc, fue sorprendido en directo a principios de año con una página de deepfakes pornográficos con recreaciones falsas de sus colegas Pokimane, Maya Higa y Blaire (pide eludir el patronímico para proteger a la grupo), conocida como QTCinderella. Ewing alegó que la consulta fue “accidental”, pero la reacción de las víctimas fue demoledora.

Higa afirmó sentirse “asqueada, débil y ultrajada”. QTCinderella publicó un impactante vídeo de repulsa: “Aunque no es mi cuerpo, acertadamente podría serlo. Fue la misma sensación de una violación. ¡La constante explotación y cosificación de las mujeres agota!”. Pokimane recordó la carencia de “consentimiento para determinadas prácticas, como sexualizar a las mujeres”.

La Oficina Federal de Investigación de Estados Unidos (FBI) ha alertado del aumento de ciberdelincuentes que emplean las imágenes y vídeos de las redes sociales para elaborar deepfakes con los que estrechar y perturbar a las víctimas.

Bulos para influir en la opinión pública. Giorgio Patrini, fundador de Deeptrace, afirma: “Los deepfakes ya están desestabilizando los procesos políticos. Sin contramedidas defensivas, la integridad de las democracias de todo el mundo está en peligro”.

El referencia de ETSI identifica estos ataques como publicaciones falsas que crean la impresión de que personas que ocupan cargos influyentes han escrito, dicho o hecho ciertas cosas. “Se aplica a todos los propósitos donde hay mucho en entretenimiento y el beneficio justifica el esfuerzo desde la perspectiva de un atacante”, alerta la entidad. Pueden utilizarse para el desprestigio de un personaje, manipular precios, atacar a competidores, influir en la opinión pública en el periodo previo a las elecciones o plebiscitos, acorazar el gravedad de una campaña de desinformación y como propaganda, especialmente en tiempos de cruzada.

En marzo de 2022, se publicó un video deepfake del presidente ucranio, Volodímir Zelenski, donde anunciaba la capitulación delante la invasión rusa. La política estadounidense Nancy Pelosy ha sufrido otro en el que parecía borracha, y ni Donald Trump ni Barack Obama ni el Papa ni Elon Musk se han librado de creaciones similares.

Ataques a la autenticidad. Se dirigen explícitamente a los procedimientos de identificación y autenticación biométrica remota. Tales procedimientos son de uso generalizado en muchos países para dar a los usuarios paso a servicios digitales, como rasgar cuentas bancarias, porque reducen los costos y facilitan la contratación de productos.

En 2022, un comunidad de hackers (piratas informáticos) denominado Chaos Computer Club ejecutó ataques exitosos contra procedimientos de identificación de vídeo aplicando métodos deepfake.

Seguridad en internet. Muchos ataques se fundamentan en el error humano para aceptar a los sistemas corporativos, como el fresco secuestro sufrido por el Comunidad de Sevilla. Pero los archivos falsos hiperrealistas multiplican la capacidad de paso al aportar datos falsos de difícil identificación. Pueden involucrar escritos con el estilo del supuesto remitente, voz y vídeos de las personas que supuestamente se comunican con las víctimas del ataque. El objetivo es que las víctimas pinchen en enlaces maliciosos, que los atacantes pueden usar para obtener credenciales de inicio de sesión o para distribuir malware (programas maliciosos).

Un jefe de faja en Hong Kong fue engañado en 2020 por atacantes que falsificaron la voz de un director de la entidad para conquistar una transferencia de 35 millones de dólares, según informó Forbes. Una compañía de energía en el Reino Unido incluso sufrió un ataque similar un año antaño que le costó 243.000 dólares.

Cine con falsos actores y guionistas. En el ámbito artística, esta tecnología se puede utilizar para crear contenido cinematográfico. El sindicato SAG-AFTRA, que agrupa a 160.000 trabajadores de la industria del entretenimiento, convocó una huelga en Hollywood en julio para protestar, adicionalmente de mejores remuneraciones, garantías de protección delante el uso de la inteligencia fabricado en las producciones.

Tanto actores como escritores demandan la regulación de tecnologías que pueden escribir una historia o reemplazar actores mediante el uso del deepfake, que permite replicar el físico, voz y movimientos de una persona. La divulgación de estas herramientas permitiría a las grandes productoras prescindir de seres humanos en la creación de contenidos.

El actor britano Stephen Fry, narrador de los audiolibros de Harry Potter en el Reino Unido, ha denunciado el uso de su voz sin su consentimiento en un documental. “Podrían hacerme acertar cualquier cosa: desde un mensaje para asaltar el Parlamento hasta secuencias de porno duro. Todo sin mi conocimiento y sin mi permiso”, ha obvio.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para admitir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites



Creditos a Raúl Limonada

Fuente

Leave a comment

0.0/5