Skip to content Skip to footer

Bruselas quiere que los contenidos generados por inteligencia fabricado lleven una advertencia específica | Tecnología


La rápida proceso de las nuevas tecnologías hace que, cada vez con más frecuencia, sea prácticamente inalcanzable distinguir si un contenido ha sido generado por un ser humano o por una máquina. Italia acaba de prohibir el uso de ChatGPT alegando que no cumple la reglamento europea de protección de datos, pero los riesgos de estas y otras nuevas tecnologías generativas pueden ser más sofisticados aún. Bruselas quiere comprobar de que haya la confusión mínima posible y, para ello, recuerda que exploración, entre otros, que todo contenido generado por inteligencia fabricado (IA) esté, de modo obligatoria, debidamente ducho.

“En todo lo que sea generado por inteligencias artificiales, ya sean textos —todo el mundo conoce ahora ChatGPT— o imágenes, habrá una obligación de avisar que ha sido creado por una inteligencia fabricado”, ha dicho este lunes el comisario de Mercado Interior, Thierry Breton, en la emisora garbo Franceinfo. El detención responsable europeo ha recordado al respecto que el Ejecutante europeo presentó, hace ahora casi exactamente dos abriles, una propuesta de reglamento sobre inteligencia fabricado que exploración “proporcionar a los desarrolladores, implementadores y usuarios de IA requisitos y obligaciones claros en relación con los usos específicos de la IA”, según resume la propia Comisión su propuesta.

Breton, que ha subrayado que, de aprobarse, los europeos serán “los primeros” en proponer una constitución de este tipo, ha manifestado su esperanza de que el texto sea votado y consentido este mismo mes en el Parlamento Europeo, requisito indispensable para que avance la reglamento y pueda ser adoptada por los Veintisiete lo ayer posible. Según fuentes parlamentarias, la Eurocámara tiene en su memorándum la presentación del plan y su votación en el pleno en la última semana de abril. Si se cumple este calendario, podría conseguirse el objetivo del comisario francés, responsable entre otros de aumentar la soberanía tecnológica europea y de la aplicación de las normas para regular este vasto campo, que quiere que el reglamento pueda entrar en vigor en 2025.

Los rápidos avances de la IA preocupan desde hace tiempo a Europa. De hecho, cuando Bruselas presentó la propuesta de reglamento, en abril de 2021, no se habían desarrollado todavía en todo su esplendor las herramientas basadas en IA generativa, capaz de crear textos, imágenes o música a partir de una serie de instrucciones que ha cogido su máxima expresión —por ahora— con ChatGPT.

La propuesta europea de reglamento —constitución que se aplica directamente en los Veintisiete, sin carencia de trasponerlo a la reglamento doméstico— prevé cuatro tipos de “riesgos”: en lo más detención está el “inaceptable” y, por lo tanto, prohibido, categoría en la que entran las aplicaciones que permiten, como en China, el denominado social scoring, el sistema de puntuación social que determina la credibilidad o reputación de una persona de acuerdo con varios factores, incluidos datos o actividades online. Le sigue el “detención peligro”, en donde entran tecnologías como la útil de escaneo de CVs para gradar a solicitantes de empleo o algunas aplicaciones médicas, que deberán estar sujetas a determinados requisitos legales. Una tercera categoría sería la de “IA con obligaciones específicas de transparencia”, en la que se incluyen los bots de suplantación como sería ChatGPT (aunque sin mención específica a este, que todavía no existía) y, finalmente, aquellos de peligro “leve o inexistente” que serán permitidos sin restricción alguna.

El recordatorio de Breton sobre la carencia de advertir claramente de que un contenido ha sido generado por una IA se aplica tanto para la categoría de peligro “detención” a como la tercera, que reclama obligaciones específicas (ambas categorías no son mutuamente excluyentes, subraya la Comisión). En concreto, las tecnologías que entren en estas categorías deberán avisar a los usuarios humanos que están interactuando con un sistema de IA, indemne que sea poco evidente, así como si se les aplican sistemas de registro emocional o categorización biométrica. Adicionalmente, los denominados deep fakes deberán tener una rótulo informando de ello.

El postrer ejemplo de lo acomodaticio que es engañar a medio mundo (o más) con un contenido creado por IA se produjo este mismo fin de semana, cuando se hizo vírico una foto del papa Francisco vestido con un tabardo blanco de plumas de Balenciaga, que resultó un fake realizado con la útil de inteligencia fabricado generativa Midjourney. Su creador es un trabajador de la construcción de Chicago de 31 abriles que, según declaró a la publicación BuzzFeed, solo buscaba “divertirse haciendo arte psicodélico”.

Poco ayer, la semana pasada, la inquietud surgía de los propios generadores de este tipo de tecnologías y contenidos: más de un millar de empresarios, intelectuales e investigadores de primer nivel relacionados con la IA generativa firmaron una carta abierta en la que solicitan una moratoria de seis meses en el expansión de esta tecnología para rememorar sobre sus consecuencias. Entre los signatarios figura Elon Musk, dueño de Twitter, pero incluso fundador de OpenAI, la empresa que ha desarrollado ChatGPT.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para admitir nuestra newsletter semanal.



Creditos a Silvia Ayuso

Fuente

Leave a comment

0.0/5