Skip to content Skip to footer

La Casa Blanca tratará de mitigar los riesgos de la inteligencia fabricado con más inversión pública | Tecnología


La Casa Blanca ha anunciado este jueves nuevas medidas para incentivar la innovación responsable en inteligencia fabricado (IA) y proteger los derechos y la seguridad de los ciudadanos. La Empresa del presidente Joe Biden aspira a avanzar en un “enfoque cohesivo y mundial de los riesgos y oportunidades relacionados con la IA”, según la Casa Blanca. La proliferación del uso de herramientas como chatbots, así como la capacidad de la IA para manipular e incluso falsear imágenes, ha empujado a Washington a intentar poner coto a la popularización de su uso, en vísperas del comienzo de una nueva campaña electoral, la de 2024. Si la desinformación en el ámbito aparente ha hecho estragos en los últimos primaveras, el arbitrio a la IA para crear realidades alternativas es un aventura clave demasiado elevado, como ha puesto de manifiesto esta misma semana el padre de la IA, Geoffrey Hinton.

La Fundación Doméstico de las Ciencias (NSF, en sus siglas inglesas; agencia gubernativo) tiene previsto cambiar 140 millones de dólares (unos 127 millones de euros) adicionales para crear siete nuevos Institutos Nacionales de Investigación sobre IA, de carácter temático, como informa en su web. En total, habrá 25 institutos nacionales de investigación de la IA en el país, con 500 millones de dólares de financiación para “apoyar una innovación responsable” que promueva el acertadamente conocido. Como comparación, el gigantesco tecnológico Microsoft invirtió 10.000 millones de dólares solo en OpenAi, la compañía que desarrolla el popular ChatGPT. La Empresa demócrata además se ha comprometido a editar un goma de directrices para que las agencias gubernamentales garanticen que su uso de la IA salvaguarda “los derechos y la seguridad del pueblo estadounidense”, adicionalmente de conseguir el compromiso de varias empresas del sector de someter sus productos a pesquisa en una conferencia sobre ciberseguridad que se celebrará en agosto.

La vicepresidenta de EE UU, Kamala Harris, se ha reunido este jueves con los máximos responsables de Google, Microsoft, OpenAI y Anthropic, una start-up especializada en IA, para forcejear sobre las posibilidades y los desafíos que presenta esta nueva verdad tecnológica. “El sector privado tiene la responsabilidad ética, ético y procesal de respaldar la seguridad de sus productos. Y todas las empresas deben cumplir las leyes vigentes para proteger al pueblo estadounidense. Espero con impaciencia el seguimiento y la desarrollo en las próximas semanas”, ha dicho Harris en un comunicado, en el que además recuerda el inquietante precedente de desinformación en las elecciones presidenciales de 2016, como un aviso para navegantes del potencial más pesimista de la IA. “Como senadora y miembro de los comités de Inteligencia y Legal [de la Cámara], investigamos la interferencia rusa en las elecciones de 2016 y produjimos pruebas empíricas de que los actores estatales utilizarán la tecnología para socavar la democracia”, subraya el comunicado.

La Casa Blanca está sometida a una creciente presión para atender la inteligencia fabricado desde que el año pasado OpenAI puso a disposición del conocido esa aplicación y los particulares empezaron a utilizarlo de inmediato para agenciárselas información, realizar tareas escolares o avanzar en el trabajo. Desde entonces, a un ritmo vertiginoso, algunas de las grandes tecnológicas se han apresurado a incorporar chatbots a sus productos y han acelerado la divulgación de la IA como un nuevo producto de consumo. Pero la existencia, además creciente, de imágenes falsas generadas por IA en internet supone un serio aviso, del que vienen alertando algunos expertos, incluido Hinton, del potencial desinformador que tiene esta tecnología, poco especialmente peligroso en campañas electorales y en un país tan polarizado política y socialmente como EE UU.

En una indicación con periodistas celebrada el miércoles, un stop funcionario de Washington ha recordado que la Empresa de Biden “ha estado liderando estas cuestiones desde mucho antaño de estos nuevos productos de IA”. “Para disfrutar las ventajas de la IA debemos entablar por mitigar sus riesgos. Y este principio principal ha guiado nuestro trabajo sobre la IA desde el principio”, añadió la fuente. En otoño, la Casa Blanca publicó el denominado Plan para una Comunicación de Derechos de la IA, “un áncora importante y una hoja de ruta” sobre la que se ha construido la hilera de salvaguardas. Cercano con el llamado Entorno de Administración de Riesgos de la IA, se ha “transmitido a las empresas y a los responsables políticos y a las personas que generan estas tecnologías algunas formas claras de mitigar los riesgos”, dijo el stop funcionario.

El objetivo parece sencillo sobre el papel: disfrutar las oportunidades de la IA y a la vez mitigar sus riesgos, entre ellos la posible robotización o automatización de puestos de trabajo, con la consiguiente destrucción de empleo, como denunciaba Hinton entre otros. Como ponerle el cascabel al minino, la Empresa de Biden sitúa a las personas y las comunidades en el centro de su organización; el acertadamente conocido, la protección de la seguridad y la finanzas nacionales. Del convocatoria de la Casa Blanca se deduce que son las empresas las que tienen la responsabilidad fundamental de “comprobar de que sus productos son seguros” antaño de comercializarlos o hacerlos públicos. Y si para ello es necesario participar, próximo a las tecnológicas, “en una evaluación independiente y pública de sus sistemas de IA en la AI Village de DEF CON 31, una de las mayores convenciones de hackers del mundo”, apuntó el stop funcionario, la Casa Blanca lo hará. “Estos modelos [de IA] serán evaluados allí por miles de socios de la comunidad y expertos para ver cómo se alinean con los títulos descritos en el goma de la Comunicación de Derechos y en el Entorno de Administración de Riesgos”, añadió la fuente. La primera velará por que los sistemas automatizados protejan la privacidad de los datos y protejan a los usuarios de sesgos discriminatorios, otro de los temores que suscita la divulgación de la IA.

En un artículo publicado el miércoles en el diario The New York Times, Lina Khan, presidenta de la Comisión Federal de Comercio —y conocido azote de los monopolios y las tecnológicas—, apuntaba que EE UU se encuentra en un “punto de valor esencia” sobre la materia. Equiparando el avance de la nueva tecnología con el inicio de gigantes como Google y Facebook, Khan advertía de que, sin una regulación adecuada, la tecnología podría afianzar el poder de las mayores empresas tecnológicas.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para admitir nuestra newsletter semanal.



Creditos a María Antonia Sánchez-Vallejo Cobo

Fuente

Leave a comment

0.0/5