Skip to content Skip to footer

EE UU y China se suman a Italia en su intención de codificar contra los riesgos de ChatGPT | Tecnología


A la carrera por hacer boleto con la inteligencia industrial —desatada por las grandes tecnológicas— le sigue ahora otra igual por regular estas herramientas. Sobre todo, por la opacidad en torno a las consecuencias de su uso y el origen de sus datos. Hace dos semanas, Italia decidió aislar el uso de ChatGPT por incumplir la norma de protección de datos y carecer de filtros para menores. Hoy, los gobiernos de las dos superpotencias, EE UU y China, anuncian pasos en dirección a la regulación de estos programas basados en inteligencia industrial. La Distribución de Joe Biden ha dispuesto un periodo de 60 días para acoger ideas sobre cómo codificar contra los enseres no deseados de estos programas, que suponen un aventura en campos tan dispares como la privacidad, la desinformación o el mercado profesional. Por su parte, Pekín ha hecho pública una propuesta norma que exigirá a los proveedores seguridad y licitud en estas aplicaciones.

El Área de Comercio de EE UU ha registrado una solicitud formal de propuestas sobre medidas de rendición de cuentas, adelanta el Wall Street Journal, que incluye si los nuevos modelos de inteligencia industrial potencialmente peligrosos deberían suceder por un proceso de certificación antaño de su extensión. “Es sorprendente ver lo que estas herramientas pueden hacer incluso en su etapa original”, explica en el diario estadounidense Alan Davidson, director de la Distribución Doméstico de Telecomunicaciones e Información. “Sabemos que debemos poner en marcha algunas medidas de protección para asegurarnos de que se utilicen de forma responsable”, añade Davidson, al frente de la iniciativa.

La Distribución del Ciberespacio de China ha entregado a conocer igualmente este martes un tesina de medidas para regular los servicios de inteligencia industrial generativa y aseguró que quiere que las empresas presenten evaluaciones de seguridad a las autoridades antaño de editar sus productos al manifiesto, según recoge Reuters. Las reglas redactadas por este regulador señalan que los proveedores serán responsables de la licitud de los datos utilizados para entrenar sus productos de inteligencia industrial generativa y que se deben tomar medidas para evitar la discriminación al diseñar algoritmos y entrenar esos datos.

Encima, este organismo asegura que China apoya la innovación en el campo de herramientas, pero que el contenido generado debe estar en límite con los títulos socialistas centrales del país. Este anuncio se produce a posteriori de que una gran cantidad de gigantes tecnológicos chinos, incluidos Baidu, SenseTime y Alibaba, mostraran sus nuevas aplicaciones, que van desde chatbots hasta generadores de imágenes. Se suman así a compañías como Microsoft y Google, que ya quieren integrar estas herramientas en sus servicios.

Dudas en Europa

Estos anuncios llegan mientras varios gobiernos europeos están analizando cómo mitigar los peligros de esta tecnología emergente, que ha disparado su popularidad entre los consumidores en los últimos meses a posteriori del extensión de ChatGPT, de la empresa OpenAI, apoyada inicialmente por Elon Musk y ahora impulsada por 10.000 millones de dólares de Microsoft. Bruselas quiere que los contenidos generados por inteligencia industrial lleven una advertencia específica, como anunció el comisario europeo de Mercado Interior, Thierry Breton: “En todo lo que sea generado por inteligencias artificiales, ya sean textos —todo el mundo conoce ahora ChatGPT— o imágenes, habrá una obligación de informar que ha sido creado por una inteligencia industrial”.

Tras el asedio anunciado en Italia por el Avalista para la Protección de Datos Personales, Francia, Irlanda y Alemania reconocieron contactos para analizar si seguirían sus pasos. Los reguladores de privacidad en Francia e Irlanda se comunicaron con sus homólogos en Italia para obtener más información sobre los motivos de la prohibición y el comisionado tudesco de protección de datos aseguró al folleto Handelsblatt que podría seguir los pasos italianos y aislar ChatGPT por el aventura para la seguridad de los datos.

Ahora, la Comisión Doméstico de Informática y de las Libertades (el organismo para el control de la privacidad de Francia) ha hecho manifiesto que está investigando varias quejas sobre ChatGPT. Mientras, la Agencia Española de Protección de Datos, así como su homóloga italiana, han solicitado que se trate la posible regulación de sistemas de inteligencia industrial generativa en la reunión de este jueves del Comité Europeo de Protección de Datos, el organismo en el que se coordinan las agencias del ramo de los países miembros.

La controversia sobre las peligrosas capacidades de estas herramientas va más allá del campo parlamentario, como mostraron hace unas semanas más de un millar de especialistas que reclamaban una moratoria de seis meses en el mejora de estos programas. “Los laboratorios de inteligencia industrial han entrado en una carrera sin control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable”, advertía la carta.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para aceptar nuestra newsletter semanal.



Creditos a EL PAÍS ,Agencias .

Fuente

Leave a comment

0.0/5