Icono del sitio Cápsula Virtual

Cómo y por qué quiere Europa regular ChatGPT | Tecnología


Todas las instituciones quieren regular ChatGPT. El célebre androide conversacional basado en inteligencia fabricado (IA) generativa empieza a edificar suspicacias por el mundo. Se temen sus enseres sobre la privacidad de los usuarios, su potencial para difundir desinformación y la posible destrucción de empleo que puede traer consigo si se implanta en el entorno sindical y realiza funciones de trabajadores.

Más de un millar de especialistas reclamaron hace dos semanas en una carta conjunta una moratoria de seis meses en el progreso de estos programas. Y los gobiernos han respondido a esa citación de socorro. Estados Unidos abrió este martes un periodo de dos meses para dar asilo ideas sobre cómo regular este tipo de herramientas. China ya ha presentado una norma para regular la IA generativa, según avanzó Reuters: las empresas que quieran usar esa tecnología deberán acreditar delante Pekín que cumplen una serie de requisitos de seguridad.

¿Qué pasa en Europa? En el Vetusto Continente, la situación es más compleja. El asunto avanza a otro ritmo y por varios flancos a la vez. Estas son algunas de las claves del debate que se está viviendo en la UE estos días:

¿Cómo funciona ChatGPT?

ChatGPT4 es la última lectura de un gran maniquí de habla (LLM en sus siglas inglesas). Ese es el nombre que reciben sistemas de inteligencia fabricado, o más concretamente de estudios profundo, entrenados con cantidades ingentes de datos (en este caso, textos) para poder perseverar diálogos con el agraciado. El software procesa millones de textos (en el caso de ChatGPT4, todo internet) y aplica una serie de algoritmos para tratar de predecir cuál es la palabra que tiene más probabilidades de suceder a las anteriores en una frase coherente. Por ejemplo, si se teclea “el Gloria es de color”, el sistema se ha entrenado leyendo los suficientes textos como para poder aseverar “azur”.

El aumento de la potencia computacional de los últimos primaveras, la sofisticación de los algoritmos encargados de realizar ese entrenamiento y las enormes bases de datos empleadas en el proceso han conseguido que la operación vaya mucho más allá de predecir una palabra. ChatGPT, igual que otros modelos similares, es capaz de escribir textos enteros coherentes y sin faltas de ortografía. El operación tiene en cuenta 175.000 millones de parámetros cada vez que se le formula una pregunta. El resultado puede resultar asombroso.

¿Qué amenaza supone para los usuarios?

El problema de las respuestas que aporta ChatGPT es que son coherentes, pero no necesariamente ciertas. Así lo advierte el propio software según se inicia: “Puede gestar ocasionalmente información incorrecta”, así como “instrucciones dañinas o contenidos sesgados”. Todavía se avisa de que el sistema “tiene un conocimiento pequeño del mundo a posteriori de 2021″, plazo hasta la que zapatilla la almohadilla de datos con la que se entrenó el maniquí.

Adicionalmente de la calidad de la información (o desinformación) que genera la utensilio, existe el miedo de que la creciente sofisticación del maniquí (se acaba de presentar ChatGPT4 y ya se está trabajando en la lectura 5) pueda concluir realizando el trabajo desempeñado hasta ahora por personas.

¿Qué se ha hecho hasta ahora en la UE?

La Agencia Española de Protección de Datos (AEPD) y sus homólogos europeos se reunieron este jueves en el Comité Europeo de Protección de Datos (EDPB por sus siglas inglesas), el organismo en el que coordinan fuerzas. Decidieron poner en marcha “un camarilla de trabajo” para permutar información al respecto. Las instituciones comunitarias no han acogido ninguna medida concreta respecto a ChatGPT.

Quienes sí lo han hecho son algunos de los países miembros. El extremo de ellos, España: la AEPD anunció el jueves por la tarde el “inicio de oficio de actuaciones previas de investigación” a OpenAI, la empresa que ha desarrollado ChatGPT. Según fuentes de la agencia, eso no implica que se vayan a tomar medidas contra la compañía, sino que se está explorando si la situación “justifica la tramitación de un procedimiento”. Italia, por su parte, bloqueó hace dos semanas la aplicación hasta dirimir si infringe la norma europea de protección de datos. Las autoridades francesa, irlandesa y alemana asimismo investigan esa posibilidad.

Por otra parte, el comisario de Mercado Interior, Thierry Breton, adelantó la semana pasada que los contenidos creados por IA deberán resistir una advertencia específica de su origen. “En todo lo que sea generado por inteligencias artificiales, ya sean textos o imágenes, habrá una obligación de comunicar que ha sido originado por estas”, señaló.

¿Por qué se quiere regular?

Hasta el momento, la amenaza más inmediata sobre los intereses de los ciudadanos europeos se ha detectado en materia de privacidad. El propio ChatGPT avisa a sus usuarios de que no introduzcan en el sistema “datos personales”. Pero eso no es suficiente.

Preguntadas sobre los motivos que le han llevado a iniciar “actuaciones previas de investigación”, fuentes de la AEPD dicen que no pueden revelar detalles para no perjudicar la tramitación del expediente. Según expertos consultados, las posibles infracciones de la norma podrían tener que ver con el uso de las conversaciones que mantienen los usuarios de ChatGPT con la propia utensilio para entrenarlo, así como con una custodia de los datos personales y de suscripción de estos que no cumpla con todas las garantías de seguridad exigidas en la UE.

¿Cómo se quiere regular?

En Bruselas hay un debate de puertas adentro sobre cuál es la mejor forma de afrontar la situación. La opinión mayoritaria es que la UE ya está (o estará) dotada de regulaciones suficientes como para controlar los posibles enseres adversos de la IA generativa.

La punta de gancho de esta táctica es el Reglamento Europeo de la IA (AI Act), un documento que se viene negociando desde 2019 y cuyo texto definitivo aún debe ser aceptado por todas las instituciones europeas. No se cuenta con que pueda entrar en vigor antiguamente de finales del año que viene o incluso de 2025. El texto clasifica las tecnologías en función del peligro que ofrecen a los ciudadanos y asigna limitaciones en consecuencia. Las más inofensivas puede proceder sin problemas, pero las de suspensión peligro están prohibidas. Entran en este extremo capítulo, por ejemplo, el uso de sistemas automáticos de inspección facial en espacios públicos o los sistemas de puntuaciones de crédito social, poco que ya funciona en China.

Durante la presidencia rotatoria francesa de la UE se hizo la recomendación de que la IA generativa se incluyese en la categoría de suspensión peligro. “Me parece mediano, pero está habiendo mucha presión de las tecnológicas para que no se incluya ahí”, asegura a EL PAÍS un eurodiputado que ha participado en la negociación y redacción del dechado de reglamento de la IA.

Otro europarlamentario involucrado asimismo en el proceso, el rumano Dragos Tudorache, dijo esta semana en una conferencia que la respuesta de la UE a los desafíos de ChatGPT se debería encauzar por el reglamento AI Act, y no a través del Reglamento Caudillo de Protección de Datos (RGPD), la norma a la que se ha acogido Italia para prohibir la utensilio. “Estoy convencido de que necesitamos una respuesta unificada”, subrayó.

¿Hace error una nueva norma?

Fuentes de la Comisión consideran que el futuro reglamento de la IA “está diseñado a prueba de retos futuros”. Al regular los usos, no las tecnologías en sí, la norma puede adaptarse a retos como la súbita acceso del engendro de la IA generativa, de cuya existencia somos plenamente conscientes desde el dispersión en despejado de ChatGPT en noviembre del año pasado.

De acuerdo con este enfoque, la tecnología que está detrás de ChatGPT no se prohibiría a menos que se considerara de suspensión peligro. “Pero si algún la usa, por ejemplo, para procesar datos de lozanía, entonces sí se le aplicaría la norma”, apunta Jan Philipp Albrecht, presidente de la fundación alemana Heinrich Böll, vinculada a Los Verdes. “Ese es el problema que aparece ahora: si queremos regular con más fuerza la IA generativa, habría que introducir una categoría nueva que diga que la IA de propósito genérico se debe considerar de suspensión peligro si puede interceder en campos de peligro”, añade. Eso es lo que quieren evitar a toda costa las tecnológicas; para eso organizan reuniones con los legisladores europeos.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para acoger nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites



Creditos a Manu González Pascual,Silvia Ayuso

Fuente

Salir de la versión móvil