Icono del sitio Cápsula Virtual

Europa quiere poner más obligaciones a la inteligencia químico generativa como la de ChatGPT | Tecnología


Ni Gran Hermano, ni Minority Report y, en lo posible, un mundo menos orwelliano de lo que ya es. El Parlamento Europeo ha hexaedro este jueves un primer paso, que es en verdad un brinco de titán, para convertir a Europa en la primera región del mundo que regule las todavía muy desconocidas posibilidades, y riesgos, de la inteligencia químico (IA) y de sus versiones más avanzadas, tanto las ya conocidas como las aún por desarrollar. Dos primaveras posteriormente de que la Comisión presentara su propuesta de reglamento para la IA, los eurodiputados quieren que los modelos generativos, que en aquel momento no eran conocidos por el gran conocido y que son capaces de crear tanto imágenes (véase la famosa foto falsa del Papa vistiendo un sugerente asilo de plumas blanco) como textos, especialmente el tan de moda y tan preocupante ChatGPT, estén obligados a cumplir medidas adicionales de transparencia, para dejar sobre todo claro que han sido creados mediante IA.

Preocupados por los potenciales enseres negativos en los derechos y libertades ciudadanas que puede tener esta tecnología en manos de empresas o gobiernos con pocos escrúpulos, los eurodiputados han ampliado adicionalmente las limitaciones que contenía la propuesta innovador de la Comisión Europea: proponen así prohibir los “usos intrusivos y discriminatorios de la IA”, especialmente los sistemas biométricos en tiempo existente o ex-post en espacios públicos, omitido muy contadas excepciones por motivos de seguridad. Se comercio, ha resumido uno de los relatores de la propuesta legislativa, el eurodiputado italiano Brando Benifei, de proporcionar a Europa una constitución con un enfoque “ético y antropomórfico” para “vencer la confianza de los ciudadanos” en estos sistemas que tanto afectan y van a seguir afectando sus vidas sin impedir, a la par, el avance de las nuevas tecnologías.

El texto suficiente este jueves con una amplia mayoría —84 votos a amparo, 7 en contra y 12 abstenciones— en una sesión conjunta de las comisiones de Libertades Civiles y Mercado Interior deberá ser todavía validado por el pleno de la Eurocámara, probablemente a mediados de junio. Desde ese momento, podrán comenzar las negociaciones con el Consejo (es aseverar, los Estados), que ya fijó su posición en diciembre, y con la Comisión, los denominados trílogos, para resolver un texto final. El comisario detrás de la propuesta legislativa, Thierry Breton, ha manifestado su esperanza de que la denominada AI Act (Ley de Inteligencia químico) pueda entrar en vigor en los Veintisiete como tarde en 2025.

“Estamos a punto de ganar un hito parlamento en el panorama digital no solo en Europa, sino para todo el mundo”, celebró Benifei sobre el texto parlamento, que en el año escaso que lleva siendo trabajado en la Eurocámara ha recibido más de 3.000 enmiendas. La IA va a ser poco que “va a estar acechándonos de alguna modo durante el resto de nuestras vidas”, constató por su parte el presidente de la Comisión de Libertades Civiles, el castellano Juan Fernando López Aguilar.

Organizaciones que luchan contra la capacidad de la IA por profesar una vigilancia biométrica masiva han celebrado especialmente la defensa de la privacidad de las enmiendas aprobadas. Estas amplían la tira de usos de sistemas de IA ya prohibidos en la propuesta innovador de la Comisión, que ya vetaba los denominados sistemas de crédito social. A partir de ahora, debería incluir igualmente tanto sistemas de identificación biométrica remota en tiempo existente en espacios públicos (como es el caso del gratitud facial) como los de identificación posterior, con la única excepción de su uso por las autoridades para investigar crímenes graves, siempre y cuando cuenten con una autorización jurídico.

Los eurodiputados igualmente incluyen en la tira de prohibiciones los sistemas de categorización biométrica que usen “características sensibles” como el tipo, raza, etnia, religión u orientación política, omitido para su uso “terapéutico”. Incluso deberían concluir prohibidos los sistemas predictivos de vigilancia para evaluar el aventura de una persona o montón de personas de cometer un delito u ofensa (basados en la perfilación, la situación de dichas personas o en su pasado criminal), así como los sistemas de gratitud de emociones por parte tanto de la policía como de los agentes de fronteras o en lugares de trabajo o escuelas. Finalmente, igualmente se veta el rastreo accidental de datos biométricos de redes sociales o cámaras de vigilancia para crear o ampliar bases de datos de gratitud facial, una de las principales demandas de las organizaciones civiles preocupadas por el potencial Gran Hermano de estas nuevas tecnologías.

“Desde el punto de horizonte de la vigilancia biométrica, estamos totalmente encantados con el texto”, asevera Ella Jakubowska, analista de la ONG europea en defensa de los derechos digitales EDRi. Su estructura ha sido muy activa en Bruselas apoyando una postura restrictiva acerca de estas herramientas.

“Las cámaras de gratitud facial de las calles o el disección en vivo del metraje de las videocámaras de vigilancia se deberán detener”, explica Jakubowska. Siquiera estará permitido hacer búsquedas de personas a partir de imágenes, cerrándole las puertas a aplicaciones del tipo Clearview. “Esa es una muy buena comunicado”, considera la británica.

La policía seguirá pudiendo manejar estos sistemas, pero con nuevas restricciones: siempre de forma retrospectiva (no en tiempo existente) y en el contexto de crímenes específicos, para agenciárselas a personas específicas y con orden jurídico. “Todavía queda mucho hasta que se apruebe el texto definitivo, que puede cambiar. Pero hoy debemos alegrarnos por este triunfo significativo de los derechos humanos”, dice Jakubowska.

Regulación por uso

Para conseguir que una norma como esta, que regula tecnologías en constante transformación, no quede anticuada aun antaño de su entrada en vigor, el reglamento de la IA se cimiento no en regular tecnologías concretas, sino sus usos, creando categorías que van desde el aventura “inaceptable” (prohibidas por la constitución) a otras menores que son aceptadas, aunque sometidas a rigurosos controles para que no afecten a las libertades y derechos ciudadanos. En su propuesta, los eurodiputados amplían en este sentido la clasificación de “áreas de parada aventura”, permitida pero sujeta a obligaciones estrictas antaño de que un producto en esta categoría pueda ser comercializado. Así, incluyen en ella aquellos sistemas de IA que puedan afectar la salubridad o seguridad de los ciudadanos, así como sus derechos fundamentales o el medioambiente. Incluso categorizan como de “parada aventura” los sistemas de IA que puedan “influir a votantes en campañas políticas”, así como los de recomendación que usan las plataformas sociales.

Para que la norma europea pueda ser aplicada a nuevas tecnologías como los sistemas generativos del ChatGPT, que debería entrar en la categoría de “parada aventura”, los eurodiputados agregan adicionalmente nuevas definiciones: por un banda, incluyen el concepto de “maniquí fundacional”, o gran maniquí, para cubrir la IA generativa —capaz de crear nuevos contenidos originales de audio, texto o imágenes a partir de la observación de otros datos—. Incluso agregan la definición “sistemas de IA de propósito caudillo”, que explican como “un sistema de IA que puede ser usado para y adaptado a un amplio espectro de aplicaciones para el que no fue diseñado intencional y específicamente”, y que deberá incluir a esos “modelos fundacionales”.

Los proveedores de estos modelos fundacionales deberán, según la propuesta de los eurodiputados, asegurar una “protección robusta” de los derechos fundamentales ciudadanos, para lo que deberán “evaluar y mitigar riesgos, cumplir con los requisitos de diseño, información y medioambientales” europeos y estar “registrados” en la cojín de datos de la UE.

Modelos generativos como ChatGPT deberán cumplir requisitos adicionales de “transparencia”: así, tendrán que dejar claro que el contenido fue generado por un sistema de IA. Encima, deberán diseñar sus modelos de forma tal que impidan que estos creen contenido ilegal y, en aras de la protección de los derechos de autor, deberán difundir los datos usados para el entrenamiento de estos sistemas, de modo tal que si un autor considera que se han violado sus derechos mediante el uso de su material por los algoritmos, pueda personarse a las vías legales existentes en la UE para requerir o exigir una indemnización.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para aceptar nuestra newsletter semanal.



Creditos a Silvia Ayuso ,Manu González Pascual

Fuente

Salir de la versión móvil