Skip to content Skip to footer

La Eurocámara aprueba negociar la primera ley sobre inteligencia sintético del mundo | Tecnología


El Parlamento Europeo ha aceptado este miércoles por amplia mayoría su posición final sobre la Ley de Inteligencia Fabricado (IA), con lo que se abre la puerta a que comiencen de inmediato las discusiones con los Estados de la UE y la Comisión, los denominados trílogos. El objetivo es culminar las negociaciones durante la presidencia española de la UE, que ya ha ostensible este reglamento una de sus prioridades. Todo ello para que, como tarde en 2026, pero quizás aún antiguamente, Europa se convierta en la primera región del mundo que cuente con normas en vigor que regulen una tecnología en rápida progreso y que promete tanto como asusta por sus posibilidades infinitas de cambiar la sociedad.

El comisario de Mercado Interior, Thierry Breton, ha celebrado de inmediato una votación cómoda —499 votos a valenza, 28 en contra y 93 abstenciones— que convierte a la Eurocámara, ha recordado, en “el primer parlamento del mundo que vota una regulación integral de IA”.

“La IA forma ya parte de modo significativa de nuestras vidas y ha provocado una serie de dudas en materia de ética, cómputo, innovación y la indigencia de dar con el entorno regulador correcto”, ha recordado por su parte la presidenta de la Eurocámara, Roberta Metsola, al celebrar el avance rematado con la votación de la posición parlamentaria, con la que “Europa toma la iniciativa y lo hace a nuestra modo, de forma responsable”.

“Si hay poco en lo que no podemos guarecer compromisos es en el hecho de que, cada vez que la tecnología avanza, tiene que ir de la mano con nuestros derechos fundamentales y títulos democráticos”, ha subrayado Metsola.

La posición final de los eurodiputados es más estricta que la que ya aprobaron los Estados en diciembre y que ahora tendrá que ser negociada para obtener un solo texto final: encima de los denominados sistemas de crédito social, ya vetados en la propuesta diferente de la Comisión, la Eurocámara quiere prohibir igualmente los “usos intrusivos y discriminatorios de la IA”, especialmente los sistemas de identificación biométrica remota, la categorización basada en características sensibles como el productos, raza, etnia, religión u orientación política. Incluso prevé prohibir la vigilancia policial predictiva para evaluar el aventura de una persona o género de personas de cometer un delito u ofensa (basados en el perfil, la circunscripción de dichas personas o en su pasado criminal), así como los sistemas de registro de emociones, por ejemplo por parte de la policía, agentes de fronteras o en lugares de trabajo y escuelas.

“El mundo ha madurado para que este enfoque basado en el uso y los riesgos sea el que más sentido tiene de cara al futuro”

Margrethe Vestager

El Partido Popular Europeo (PPE) había presentado en el extremo momento —y rompiendo así, según los negociadores de la ley, un acuerdo para no añadir mínimo no discutido— una rectificación para recuperar las excepciones previstas originalmente y permitir a las fuerzas del orden usar sistemas de biométricos de registro, como el facial, en lugares públicos en tiempo positivo para casos muy concretos, como la búsqueda de un peque desaparecido o un ataque terrorista. Es una posición similar a la que aprobó el Consejo en diciembre. Finalmente, ha sido rechazada en el pleno, pese a que durante el debate de la ley, el martes, el eurodiputado popular Jeroen Lenaers la había defendido como una muestra de que, cuando se prostitución de IA, “no solo hay que susurrar de cómo se protege a la ciudadanía de la IA, sino igualmente de cómo la IA puede proteger a la ciudadanía”. La propuesta final sí sigue permitiendo el uso “ex post” de este tipo de tecnologías para esos casos contados, siempre y cuando se cuente con una orden contencioso para ello. Una medida suficiente, según los ponentes de la propuesta parlamentaria, el italiano Brando Benifei (S&D) y el rumano Dragos Tudorache (Renew) para afrontar estos casos.

Peligro “inaceptable”

Los sistemas de IA generativa —capaz de crear contenidos originales de audio, texto o imágenes a partir de la observación de otros datos— como el ChatGPT, eran poco conocidos cuando se daban los primeros pasos legislativos, pero ahora están en la mente de todos, incluidos sus creadores, muchos de los cuales son firmes demandantes de una demarcación clara de su uso. Los eurodiputados han añadido capas extra de seguridad y transparencia a los desarrolladores de estos modelos fundacionales en esta reglamento que se pedestal no en regular tecnologías concretas, sino en cómo se utiliza: la ley crea categorías que van desde el aventura “inaceptable” (prohibidas por la código) a otras menores que son aceptadas, aunque sometidas a rigurosos controles para que no afecten a las libertades y derechos ciudadanos, sobre todo la segunda categoría más suscripción, la de “detención aventura”, que es donde entraría la IA generativa.

Los proveedores de estos modelos fundacionales deberán, según la propuesta de los eurodiputados, certificar una “protección robusta” de los derechos fundamentales ciudadanos, para lo que deberán “evaluar y mitigar riesgos, cumplir con los requisitos de diseño, información y medioambientales” europeos y estar “registrados” en la pulvínulo de datos de la UE. Adicionalmente, modelos generativos como ChatGPT deberán cumplir requisitos adicionales de “transparencia”: así, tendrán que dejar claro que el contenido fue generado por un sistema de IA, para lo que se les exigirá una marca de agua que los distinga. De igual modo, deberán diseñar sus modelos de forma tal que impidan que estos creen contenido ilegal y, en aras de la protección de los derechos de autor, deberán anunciar los datos usados para el entrenamiento de estos sistemas, de modo tal que si un autor considera que se han violado sus derechos mediante el uso de su material por los algoritmos, pueda venir a las vías legales existentes en la UE para exigir o exigir una indemnización.

“Queremos que el contenido de la IA sea reconocible y que los deep fakes no envenenen nuestra democracia”

Brando Benifei

“Queremos que el contenido de la IA sea reconocible y que los deep fakes no envenenen nuestra democracia”, ha indicado Benifei. Durante el debate del martes, la vicepresidenta de la Comisión Europea para el Campo de acción Digital y de Competencia, Margrethe Vestager, había destacado la importancia de contar con un entorno normativo para la IA porque, dijo en el pleno de la Eurocámara, permite “crear confianza y seguridad jurídica”. Y así, añadió, “se pueden hacer grandes cosas con la IA si se puede echarse en brazos en ella”.

La danesa, que a finales de mayo lanzó adyacente con Estados Unidos una propuesta para crear un “código de conducta” voluntario para la industria de IA generativa en el entorno del G7 que sirva de “puente” hasta que la ley europea y otras en otras zonas del mundo estén en marcha, afirma que ahora es “el momento oportuno” para firmar esta tecnología de la forma en que la aborda la UE. “El mundo ha madurado para que este enfoque basado en el uso y los riesgos sea el que más sentido tiene de cara al futuro”, afirmó. Por su parte, el comisario Breton consideró que Europa es el continente “más capaz de realizar esta reglamentación de modo equilibrada, transparente y proporcionada”.

“Tenemos la posibilidad de establecer de forma progresiva una norma mundial”, agregó el francés, que este miércoles ha destacado su intención de celebrar el primer trílogo esta misma indeterminación en Estrasburgo porque “no hay tiempo que perder. Exposición con la próxima presidencia española de la UE para trabajar en este gran tema para conseguir un texto final al término del año”, ha destacado. Benifei se declara incluso “seguro” de que este plazo será posible incluso si llega a producirse un cambio de Gobierno en España el 23 de julio, ya que, sostiene el socialdemócrata italiano, la presidencia española se ha mostrado “muy comprometida” con este asunto.

Fuentes comunitarias reconocen, no obstante, que no va a ser claro conciliar la visión más centrada en la seguridad franquista de los Estados con la de la protección de los derechos fundamentales ciudadanos en las áreas de detención aventura. Pero igualmente se declaran optimistas en perspicacia del contexto en que se producirán las negociaciones: una creciente preocupación por los riesgos que puede implicar la IA generativa, manifestado incluso por sus desarrolladores, muchos de los cuales han pedido explícitamente una regulación, y los mensajes de otras zonas y países del mundo dispuestos ya igualmente a establecer salvaguardias para una tecnología cuyas posibilidades son incluso difíciles de imaginar. La idea básica, señalan, es que ni Europa, ni nadie, se puede permitir no regular una cuestión tan importante. Benifei, de hecho, considera que hay “apetito suficiente” para conseguir incluso los tiempos y que la ley de inteligencia sintético entre en vigor, total o parcialmente, antiguamente de lo previsto por la Comisión, que retraso su implementación total en 2026.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para tomar nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites



Creditos a Silvia Ayuso

Fuente

Leave a comment

0.0/5