Skip to content Skip to footer

Google, Meta y OpenAI anuncian medidas para identificar los contenidos creados con inteligencia fabricado | Tecnología


Google, Meta y OpenAI han anunciado en los últimos días distintas medidas para que sea más hacedero identificar imágenes o archivos que han sido producidos o retocados con inteligencia fabricado (IA). Estas iniciativas se enmarcan en el temor a que la difusión indiscriminada de mensajes falsos condicione los resultados de elecciones o tenga otras consecuencias inesperadas. Las tres compañías ya habían anunciado que tratarán de impedir el uso de la IA en los procesos electorales de 2024.

Tras primaveras de trastornar miles de millones de euros en mejorar la capacidad de la inteligencia fabricado generativa, las tres plataformas se han unido a la Coalición para la Procedencia y Autenticidad de Contenido (C2PA por las siglas en inglés), que propone un certificado típico y reúne a buena parte de la industria digital, a medios de comunicación como la BBC o The New York Times a bancos y a fabricantes de cámaras. Las empresas admiten en sus comunicados que no hay por ahora una posibilidad única, ni eficaz en todos los casos, para la identificación de contenido generado con IA.

Las iniciativas varían entre marcas visibles en las propias imágenes y mensajes disimulados en los metadatos del archivo o en los píxeles que han sido generados artificialmente. Con su útil aún en etapa beta, SynthID, Google asimismo dice sobrevenir enemigo un modo de identificar audios.

El típico C2PA para introducir información en los metadatos de la imagen tiene numerosas debilidades técnicas, identificadas con detalle por desarrolladores. La propia OpenAI, que usará C2PA en Dall-3 (su procreador de imágenes), advierte en su comunicado que no hay que fiarse excesivamente de sus posibilidades: “Metadatos como C2PA no son una posibilidad milagrosa para acometer cuestiones de procedencia. Puede eliminarse fácilmente de forma accidental o intencionada. Una imagen que carece de estos metadatos puede sobrevenir sido generada o no con ChatGPT o con nuestra API”, señalara la compañía creadora del chatbot que ha popularizado la inteligencia fabricado generativa.

Las compañías no dan plazos claros para la inclusión completa de sus medidas. Este 2024 es un año satisfecho de citas electorales en países importantes y la influencia de contenido generado por IA puede ser explosiva. La carencia de defenderse preventivamente es básico. “Estamos desarrollando esta capacidad y en los próximos meses empezaremos a aplicar etiquetas en todos los idiomas que admite cada aplicación”, dice Nick Clegg, presidente de Asuntos Públicos de Meta, en su comunicado.

Meta promete no solo etiquetar visualmente las imágenes que generen sus herramientas de IA, sino asimismo detectar e identificar las que se cuelguen en sus redes: Instagram, Facebook y Threads, siempre que sea posible. “Podemos etiquetar imágenes de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock a medida que ponen en marcha sus planes para añadir metadatos a las imágenes creadas por sus herramientas”, dice Clegg.

Google aplicará sus métodos a YouTube. Aunque estos enfoques dicen representar lo postrer adentro de lo que es técnicamente posible ahora mismo, la empresa cree que su método creado con SynthID puede sobrevivir modificaciones voluntarias para ocultarlo, como “unir filtros, cambiar colores y seguir con varios esquemas de compresión con pérdida, que son los más utilizados para archivos JPEG”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para percibir nuestra newsletter semanal.



Creditos a jordi perez

Fuente

Leave a comment

0.0/5