Skip to content Skip to footer

¿Cómo evitar el deepfake? Ya existe un remedio ‘casero’, por ahora


Por otra parte, hay notables diferencias regionales. Norteamérica es el epítome de las deepfakes, con un incremento de 1740%; en Asia y el Pacífico, 1,530%; en Europa, 780% (incluyendo Reino Unido); en Medio Este y África, 450%; y en América Latina, 410%, en México esta aparejo ha crecido 700%.

Aunque un estudio de Jumio reveló que 52% de las personas que encuestaron cree que podrían detectar un video deepfake, la ingenuidad es que las amenazas siguen creciendo y pueden traer consecuencias mucho más graves, como el fraude impulsado por la IA.

«Los deepfakes preparan el camino para el robo de identidad, estafas y campañas de desinformación a una escalera sin precedentes», comenta Pavel Goldman-Kalaydin, responsable de IA/ML en Sumsub. Por ello, esta tecnología se está convirtiendo en foco de regulaciones para los gobiernos y las tecnológicas buscan implementar herramientas para prevenirla.

Marcas de agua: un remedio ‘casero’ para los deepfakes

“La marca de agua es una alternativa para informar que una imágen fue hecha con IA”, explicó Juan Carlos Gutiérrez, director Administrador de Tecnología y Inmueble de Soluciones para América Latina y el Caribe en AWS.

Gutiérrez explicó que en Bedrock, la nueva plataforma de IA generativa de Amazon, estas marcas de agua se pueden implementar de dos maneras: física sobre la imagen – como si fuera un logo- y a través de los metadatos. Una puede funcionar para que la vean las personas y otra para las plataformas.

Aunque en el caso de la marca física estas se pueden quitar a través de programas o habilidades simples de tiraje, Gutiérrez explicó que aunque sí es posible, ya se convierte en una violación a la propiedad intelectual.

En cuanto a los metadatos, estos pueden ser utilizados para que las plataformas lo escaneen y ya no puedan replicar el contenido sin autorización. Por ejemplo, si un cliente creó una imagen con IA sobre su producto para ser vendido en Facebook Marketplace, ya no se podría replicar esa imagen en otro espacio como Amazon, por ejemplo.

Sin secuestro, aunque estas son tecnologías que ya está desarrollando AWS, requiere de la colaboración de las plataformas para que esto sea posible.

Poco similar como lo que ocurre con StopNCII, una aparejo para detener la difusión de imágenes y videos íntimos sin consentimiento. La aparejo funciona generando un hash o huella digital en los contenidos, que se coloca al usar un cálculo para asignar un grabador específico o hash único a una imagen o video y todas las copias duplicadas de la imagen o video tienen exactamente el mismo grabador específico o hash, por lo que no se pueden replicar en todas las plataformas de Meta.

“Estos no son metadatos que se pueden borrar”, afirmó Gutiérrez, pues de acuerdo con él, todo el contenido generado en Titan, la aparejo para crear imágenes de IA generativa en Amazon, están en su propia infraestructura de datos que imposibilita que algún pueda borrarlos. Sin secuestro, esto solo posible en su plataforma.



Creditos a Ginger Jabbour

Fuente

Leave a comment

0.0/5