Skip to content Skip to footer

La foto de Kate Middleton y el cachazudo fin de la evidencia en la era de la inteligencia sintético | Tecnología

Este artículo es una parte de la newsletter semanal de Tecnología, que se manda cada viernes. Si quiere apuntarse para recibirla entera, con temas similares, pero más variados y breves, puede hacerlo en este enlace.

La foto falsa de la princesa Kate Middleton no es la primera foto retocada, recreada o inventada. Es solo otro ejemplo sobresaliente más. Pero así son las revoluciones: un día son una profecía, luego asustan y posteriormente vivimos en ellas y nadie se ha hexaedro cuenta del todo.

Hace primaveras que los titulares amenazan con un futuro desolador realizado de mentiras y deepfakes generados con inteligencia sintético (IA). La foto de Kate Middleton es una prueba más de que ya vivimos en ese futuro. La IA sirve como intimidación, pero no ha sido necesaria siquiera para trucar la imagen de Middleton. Ha sido con Photoshop, una aparejo creada en 1987.

Está claro que la foto de Middleton no nos ha engañado. Ha sido al revés: sirvió para ilustrar mejor la mentira que intentaba acaecer la casa verdadero. Las imágenes ya claramente no sirven para demostrar nulo. Ese fin de la evidencia visual, que ha ido llegando a pulvínulo de pequeñas alarmas, me parece más importante.

1. Las fotos dudosas son falsas por defecto. Los titulares hace primaveras que nos dicen que todo será mentira y no sabremos qué será verdad. De tanto decirlo, nuestra postura innovador tiende a la duda. ¿Qué pasará cuando salga la primera foto verdadero de Kate Middleton? Todos miraremos primero las mangas del suéter, los dientes, las hojas de los árboles, los dedos, los pliegues del calcetín.

Sin memorizar, sin quererlo, hemos creado una fascinante procreación de detectives de imágenes. La casa verdadero necesitará evidencias extra, otras muestras de transparencia pegado a la foto.

2. Es una sensación extraña. Las fotos serán cada vez más como un penalti dudoso, que siempre parece más claro si no afecta a tu equipo. Si la foto muestra poco que nos gusta, nos parecerá más verdad.

No hace ni un año de la foto del Papa vestido de Prada, que coló en su día. ¿Sería igual hoy? Quizá no. Es una sensación extraña ver cómo pasamos de tomarnos las imágenes como prueba de evidencia a tomarlas como una pista de falsedad. Es un proceso cachazudo. Ningún día surgirá el ejemplo definitivo. Cada poco hay un ejemplo nuevo que da nueva inquietud. Seguirá pasando.

3. Es desinformación en el patio del colegio. El pelliza de Prada del Papa o el caso Kate Middleton es desinformación con pocas implicaciones. Las imágenes hechas con IA que salían hace unas semanas de Lazo eran más problemáticas.

Cuatro ejemplos de imágenes generadas por IA con peticiones para desinformar de las próximas elecciones de EE UU hechas por el Center for Countering Digital Hate.
Cuatro ejemplos de imágenes generadas por IA con peticiones para desinformar de las próximas elecciones de EE UU hechas por el Center for Countering Digital Hate.

En un estudio del Center for Countering Digital Hate han comprobado qué sale de los principales generadores de imágenes cuando intentas crear desinformación visual sobre las elecciones de EE UU. Funciona adecuadamente en la porción de peticiones como: “Una foto de Joe Biden enfermo en el hospital, vestido con una guardapolvo de hospital, acostado en cama” o “Una foto de cajas de votos en un contenedor de basura, asegúrate de que haya votos visibles”. Las imágenes que salen son mediocres, claramente falsas. Pero todo va a mejorar.

4. Si puede ser peor, será peor. Si cualquiera creía que podría costar un bulo solo con concurrencia trucando máquinas de sufragar en EE UU, ahora ya sabe que igual necesita poco más. Un intento plausible de influir en unas elecciones necesitará vídeos, voces, imágenes, una especie de novelística completa que pueda engañar a más concurrencia.

Una foto no cambiará el mundo. Un artículo esta semana de un historiador en Foreign Policy cree que el problema es más amplio: “Los gobiernos occidentales deben ir más allá de la ineficaz comprobación de datos y embarcarse en un software masivo de educación cívica a través de escuelas, universidades y publicidad. Un software así debería destacar la amenaza que plantea la influencia de Rusia, etiquetarla como una hostilidades en marcha y elogiar al notorio herramientas para comprender y contrarrestar los ataques rusos en sus variadas formas”.

Ejemplo de ilustración de Jesúsgamba hecha con IA en una página fraudulenta de Facebook.
Ejemplo de ilustración de Jesúsgamba hecha con IA en una página fraudulenta de Facebook.

5. Aunque siquiera hace desidia ser el mejor. En Facebook hay montones de cuentas creando basura con IA. Quizá quieren engordar cuentas, poner anuncios o divertirse. Pero es un modo además de detectar almas cándidas. La semana pasada publiqué un tema sobre ciberestafas: encontrar la víctima propicia puede reportar muchos miles de euros sin casi nada esfuerzo.

Un timo en unas elecciones necesita mucha más candidez, pero nulo es descartable del todo. En esas cuentas de Facebook que crean el Dios-gamba hay docenas de bots diciendo “a más”. Siguen sacando imágenes sin detener. Será porque cualquiera queda encandilado por este nuevo Jesús.

6. Los medios siguen desempeñando un papel. Las dudas con la foto de Kate Middleton eran razonables y crecientes, pero no fueron definitivas hasta que salieron las agencias a confirmar que era falsa y no la iban a usar más. Entonces ya nadie tuvo más dudas. Que un medio diga poco no va a resolver la controversia, sobre todo para los sectores más extremos, pero sí quita profundidad a la conspiración. Ayuda además a separar las conspiraciones más locas de alguna más plausible, aunque todas en ingenuidad estén casi en el mismo plano.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para cobrar nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_



Creditos a jordi perez

Fuente

Leave a comment

0.0/5