Skip to content Skip to footer

Diez respuestas sobre la ley europea de inteligencia industrial | Tecnología


Los sistemas y programas de inteligencia industrial (IA) son capaces de realizar tareas propias de la inteligencia humana, como razonar, estudiar (machine learning), percibir, comprender el jerga natural y resolver problemas. Ya está presente en todos los ámbitos de nuestra vida, desde las aplicaciones habituales de compras o visionado de películas hasta el expansión de nuevas fórmulas farmacéuticas o la ordenamiento de procesos de producción. Permite automatizar tareas, tomar decisiones, mejorar la eficiencia y aportar soluciones en ámbitos tan diversos como la medicina, la industria, la robótica o los servicios financieros. La ley europea de IA comienza desde ahora a aplicarse gradualmente con el objetivo de respaldar su expansión con unos criterios éticos y legales. Estas son 10 respuestas a las dudas que genera una iniciativa pionera en el mundo:

¿Por qué Europa la regula?

La inteligencia industrial aporta beneficios sociales, fomenta el crecimiento financiero y perfeccionamiento la innovación y competitividad. Estas aplicaciones, en normal, plantean un peligro bajo o ignorante. Pero otras pueden gestar situaciones contrarias a los derechos y libertades, como los usos de inteligencia industrial para gestar imágenes pornográficas no deseadas o la utilización de datos biométricos para categorizar a las personas por rasgos de su aspecto o su aplicación en procesos de contratación, educación, concurrencia sanitaria o de comportamiento policial predictiva.

¿Cuáles son las categorías de peligro?

Peligro imperceptible: En esta categoría están la mayoría de sistemas. Para estas aplicaciones, el proveedor, de forma voluntaria, puede adoptar los requisitos éticos y agregarse a códigos de conducta. Se considera IA de uso normal aquella entrenada con una potencia informática de 10²⁵ operaciones de coma flotante por segundo (FLOPS, por sus siglas en inglés). FLOPS es la medida del rendimiento de una computadora y la Comisión considera la mencionada dimensión como el acceso de posibles riesgos sistémicos. La UE considera que ChatGPT-4, de OpenAI, y Gemini, de Google DeepMind, podrían estar en este acceso, que podrá revisarse mediante un acto delegado.

Suspensión peligro: Son los modelos que, potencialmente, pueden afectar a la seguridad de las personas o a sus derechos. La relación está abierta a revisión permanente, pero la norma prevé ya ámbitos de aplicación incluidos en esta categoría, como infraestructuras críticas de comunicación y suministro, educación, dirección del personal o golpe a servicios esenciales.

Peligro inadmisible: Los sistemas que se incluyan en esta categoría están prohibidos porque vulneran los derechos fundamentales. En esta relación están aquellos de clasificación o puntuación social, los que aprovechan la vulnerabilidad de las personas y los de identificación de raza, opinión, creencia, orientación sexual o reacción emocional. Se prevén excepciones para su uso policial con el fin de perseguir 16 delitos concretos relacionados con la desaparición de personas, secuestros, comercio y explotación sexual, prevención de amenazas para la vida o la seguridad o respuesta a la amenaza coetáneo o previsible de un ataque terrorista. En caso de aprieto, se puede autorizar un uso magnífico, pero, si se deniega, todos los datos e información tienen que ser suprimidos. En circunstancias no urgentes, ha de ir precedida de una evaluación previa de las repercusiones desde el punto de instinto de los derechos fundamentales y debe notificarse a la autoridad de vigilancia del mercado pertinente y a la autoridad de protección de datos.

Peligro específico para la transparencia: Se refiere a los peligros de manipulación que se generan con bulos de apariencia vivo (deepfakes) o con aplicaciones conversacionales. La norma obliga a dejar registro de forma inequívoca que el sucesor está en presencia de una creación industrial o que se interactúa con una máquina.

Peligro sistémico: La norma tiene en cuenta que el uso generalizado de sistemas de gran capacidad puede ocasionar daños masivos o de amplio talento, como el caso de ciberataques o de propagación de un bulo financiero o un sesgo.

¿Quiénes deben someterse a la ley?

Todos los agentes, tanto públicos como privados, que utilicen sistemas de inteligencia industrial en el interior de la UE deben someterse a la ley, sean o no europeos. Afecta a los proveedores de programas, a los que los aplican y a quienes los compran. Todos deben velar por que su sistema sea seguro y conforme a la ley. En el caso de sistemas de parada peligro, ayer y posteriormente de ser comercializados o puestos en servicio, los sistemas deberán ser sometidos a una evaluación de conformidad para respaldar la calidad de los datos, trazabilidad, transparencia, supervisión humana, exactitud, ciberseguridad y solidez. Esta evaluación debe repetirse si el sistema o su finalidad se modifican sustancialmente. Los sistemas de inteligencia industrial de parada peligro utilizados por las autoridades o entidades que actúen en su nombre deberán, por otra parte, estar registrados en una saco de datos pública de la UE, a menos que tales sistemas se empleen a género policiales y de migración. Los proveedores de modelos con riesgos sistémicos (potencia informática de más de 10²⁵ FLOPS) tienen la obligación de evaluarlos y mitigarlos, informar los incidentes graves, tolerar a agarradera pruebas y evaluaciones avanzadas, respaldar la ciberseguridad y proporcionar información sobre el consumo de energía de sus modelos.

¿Qué debe incluir una evaluación de conformidad?

Los procesos, el período y la frecuencia de uso, las categorías de personas físicas y grupos afectados, los riesgos específicos, las medidas de vigilancia humana y el plan de comportamiento en caso de materialización de los riesgos.

¿Cómo sabe un proveedor los género de su producto?

Las grandes corporaciones ya cuentan con sistemas propios para adaptarse a la norma. Para las entidades menores y aquellas que usen sistemas de código franco, la ley crea espacios controlados de pruebas y experimientación en condiciones reales, que aportan un entorno controlado para probar tecnologías innovadoras durante seis meses prorrogables a otros tantos. Podrán ser objeto de inspecciones.

¿Quiénes están exentos?

Los proveedores de modelos gratuitos y de código franco están exentos de las obligaciones relacionadas con la comercialización, pero no de la obligación de evitar los riesgos. Siquiera afecta la norma a las actividades de investigación, expansión y creación de prototipos o a los desarrollos destinados a usos de defensa o de seguridad franquista. Los sistemas de IA de uso normal sí tendrán que cumplir los requisitos de transparencia, como la elaboración de documentación técnica, el cumplimiento de la estatuto de la UE en materia de derechos de autor y la difusión de resúmenes detallados sobre los contenidos utilizados para el entrenamiento del sistema.

¿Quién vigila el cumplimiento?

Se establece una Oficina Europea de Inteligencia Químico, un panel de asesoramiento irrefutable y autoridades de vigilancia nacionales para el seguimiento de los sistemas y autorización de aplicaciones. Las agencias y oficinas de IA deberán tener golpe a la información necesaria para cumplir sus obligaciones.

¿Cuándo será plenamente aplicable la Ley de IA?

Tras su admisión, la Ley de IA entra en vigor a los 20 días de su publicación y será plenamente aplicable en 24 meses, de forma continuo. En los primeros seis meses, los Estados miembros deben eliminar los sistemas prohibidos. En un año, se impondrán las obligaciones de gobernanza para la IA de uso normal. En dos abriles, deben estar adecuados todos los sistemas parada peligro.

¿Cuáles son las sanciones por las infracciones?

Cuando se comercialicen o utilicen sistemas de inteligencia industrial que no cumplan los requisitos del Reglamento, los Estados miembros deberán establecer sanciones efectivas, proporcionadas y disuasorias por las infracciones y notificarlas a la Comisión. Se prevén multas de hasta 35 millones de euros o el 7% del masa de negocios anual a escalera mundial del deporte financiero mencionado, hasta 15 millones de euros o el 3% del masa de negocios y hasta 7,5 millones de euros o el 1,5% del masa de negocios. En cada categoría de infracción, el acceso sería el último de los dos importes para las pymes y el más elevado para las demás empresas.

¿Qué puede hacer la víctima de una infracción?

La Ley de IA prevé el derecho a presentar una denuncia en presencia de una autoridad franquista y facilita a las personas la exigencia de una indemnización por los daños causados por sistemas de inteligencia industrial de parada peligro.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para acoger nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_



Creditos a Raúl Limonada

Fuente

Leave a comment

0.0/5