Skip to content Skip to footer

Las grandes compañías buscan cómo fijar un ampliación ético y permitido de la inteligencia químico | Tecnología

Carme Artigas Inteligencia Artificial
Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Fabricado, y el comisario Thierry Breton (en primer término), el pasado 9 de diciembre tras el acuerdo sobre le ley europea de inteligencia químico.SIERAKOWSKI FREDERIC

Europa ha legado un paso delante con la aprobación de la primera legislatura del mundo para regular la inteligencia químico. Esta categoriza las aplicaciones de la utensilio en función de sus riesgos y prevé duras sanciones para los infractores, que pueden calar a los 35 millones de euros o 7% del pandeo de negocio o, en el beocio de los casos, 7,5 millones o 1,5% del mismo. La UE establece un periodo de transición antaño de su aplicación definitiva en 2026, un tiempo que las empresas tendrán que utilizar para fijar que sus desarrollos cumplen la ley. Gigantes como IBM, Intel o Google, favorables a la regulación, han desarrollado plataformas y sistemas para respaldar que, ya que es imparable, la inteligencia químico se desarrolle con criterios éticos, transparentes y osado de sesgos. De esta forma, las compañías ofrecen fórmulas para cumplir con la primera ley de inteligencia químico, la europea AI act.

La consultora tecnológica Entelgy señala tres claves que las empresas deben tener en cuenta: aquellas que gestionen datos personales, médicos, de reemplazo o para toma de decisiones, deberán revelar cómo funciona el cálculo y el contenido que genera en un registro europeo; a pesar de no ser obligatorio, se recomienda establecer mecanismos de supervisión humana; y los modelos de lengua de gran tamaño (LLM) deberán introducir sistemas de seguridad y los desarrolladores tendrán la obligación de ser transparentes sobre el material protegido por derechos de autor que utilizan.

“Debemos asegurarnos de que la tecnología que desarrollamos se cree de guisa responsable y ética desde el principio. Es una gran oportunidad, pero igualmente plantea desafíos”, advierte Christina Montgomery, vicepresidenta y directora de Privacidad y Confianza de IBM. Al contrario que otras compañías partidarias del osado ampliación (150 directivos de empresas europeas se han posicionado en contra de la norma), IBM envite “una regulación inteligente que proporcione barreras de protección para la sociedad, al tiempo que promueve la innovación”. Intel, otro hércules del sector, coincide, según Greg Lavender, patrón de Tecnología de esta empresa: “La inteligencia químico puede y debe estar al trascendencia de todos para que se despliegue de forma responsable”.

Ambas compañías han desarrollado plataformas propias para fijar este ampliación de acuerdo con normas que, poco a poco, tanto gobiernos como compañías consideran necesarias.

La opción de IBM es Watsonx.governance una plataforma que incluye el manejo ético de datos, la dirección de riesgos y el cumplimiento de las normas. “Se ha desarrollado para ayudar a las organizaciones a aplicar la IA de guisa responsable, solidarizarse a las políticas de hoy y estar perspicaz para la regulación de mañana”, detalla Montgomery.

El 82% de los responsables de las compañías han prohijado o implementado IA o planean hacerlo en el próximo año

Indagación a líderes empresariales europeos

Ana Paula Assis, presidenta y directora común de IBM para Europa, Oriente Medio y África defiende la indigencia de estas herramientas a partir de una averiguación a 1.600 líderes empresariales de Alemania, Francia, Italia, España, Suecia. Según los resultados, el 82% de los responsables de las compañías han prohijado o implementado IA o planean hacerlo en el próximo año y casi la totalidad (95%) lo hacen o lo van a hacer porque es eficaz en la toma de decisiones, en la dirección y en la táctica comercial. Según Hazem Nabih, director de tecnología para Oriente Próximo en Microsoft, “la productividad de cualquier empresa aumenta entre un 30% y un 50%”.

Pero esta utensilio de enorme potencial afronta desafíos: un situación ético necesario, la indigencia de nuevas habilidades y el aumento de costes para que su ampliación, encima de ser eficaz, sea acordado (sin sesgos) y transparente (explicable y medible), así como que garantice la seguridad y la privacidad.

La propuesta de IBM es que se pueda utilizar por cualquier compañía, sea cual sea el maniquí informático implantado, tanto los de código libre como los desarrollados particularmente o por otras compañías. “Nuestra táctica y nuestra obra es abierta, híbrida y multimodelo en el sentido de que, efectivamente, estamos dando a los clientes la flexibilidad de implementar nuestras soluciones en los entornos que mejor les funcionen”, explica Assis.

La opción que plantea el otro hércules es Intel Trust Authority y parte de una filosofía parecida: “Un ecosistema libre y enfocado en el desarrollador para respaldar que las oportunidades de la inteligencia químico sean accesibles para todos”. “Son herramientas que agilizan el ampliación de aplicaciones de IA seguras y facilitan la inversión necesaria para suministrar y progresar esas soluciones con el fin de tolerar la IA a todas partes”, según el patrón de tecnología de la compañía.

“Si los desarrolladores están limitados en su alternativa de hardware [equipos] y software [programas], la viso de casos de uso para la admisión de IA a escalera general se verá restringida y probablemente limitada en el valía social que son capaces de ofrecer”, explica Lavender.

La táctica de Intel no solo va dirigida a grandes empresas. Igualmente ha animado, durante el Innovation 2023, AI PC Acceleration Program, una iniciativa diseñada para acelerar el ritmo de ampliación de la inteligencia químico en el ámbito de los computadores personales (PC).

El software tiene como objetivo conectar a los proveedores independientes de hardware y de software con los capital de Intel, que incluyen herramientas de IA, coingeniería, equipos, capital de diseño, experiencia técnica y oportunidades de comercialización. “Estos capital ayudarán a acelerar nuevos casos de uso y conectar a la industria en común con las soluciones de IA”, defiende la compañía. Entre los socios del software se encuentran Adobe, Audacity, BlackMagic, BufferZone, CyberLink, DeepRender, MAGIX, Rewind AI, Skylum, Topaz, VideoCom, Webex, Wondershare Filmora, XSplit y Teleobjetivo.

Tenemos un conjunto completo de controles para respaldar que, para las empresas que utilizan Vertex, sus datos sean suyos y de nadie más. No se filtran, no se comparten con nadie, ni siquiera con Google

Thomas Kurian, director de Google Cloud

Google ha desarrollado para Gemini, su posterior maniquí de inteligencia químico, sistemas de protección específicos para aspectos como la protección de datos personales que exigirá la nueva norma. “Tenemos un conjunto completo de controles para respaldar que, para las empresas que utilizan Vertex AI, sus datos sean suyos y de nadie más. No se filtran, no se comparten con nadie, ni siquiera con Google. Hay un dilatado conjunto de controles y capacidad de cumplimiento y auditoría que Vertex proporciona”, explica Thomas Kurian, director de Google Cloud en la presentación de las herramientas para desarrolladores de Gemini.

Sesgos

Uno de los mayores desafíos son los sesgos, las deficiencias incluidas en los algoritmos que pueden dilatarse por todo el sistema de inteligencia químico menospreciando la complejidad de los seres humanos. En este sentido, dos artículos de investigadores de Sony y Meta presentados en la Conferencia Internacional sobre Visión por Computador (ICCV por sus siglas en inglés), proponen formas de calcular los sesgos para efectuar la diferencia de los datos que no solo sirven para tomar decisiones sino igualmente para entrenar a las máquinas.

William Thong, investigador de ética de IA en Sony, explica en MIT Technology Review sobre su propuesta: “Se utiliza para calcular el sesgo en los sistemas informáticos, por ejemplo, comparando la precisión de los modelos de IA para personas de piel clara y oscura”.

La utensilio de Sony ha ampliado la escalera de tonos de piel reconocibles por la computadora para no fijarse solo en si es clara u oscura, sino igualmente las tonalidades de los distintos colores.

Para aligerar las evaluaciones de sesgos, Meta igualmente ha desarrollado la utensilio Fairness in Computer Vision Evaluation (FACET). Según Laura Gustafson, investigadora de IA en la compañía, el sistema se pedestal en 32.000 imágenes humanas etiquetadas por personas en función de 13 parámetros perceptibles, como existencia (mozo o maduro), tono de piel, sexo, color y textura del mechones, entre otros. Meta ha puesto sus datos disponibles de forma gratuita en recorrido para ayudar a los investigadores.

Uso generalizado sin control

La importancia de las cautelas la pone de manifiesto un flamante crónica de la firma de seguridad Kaspersky realizado entre directivos españoles y que revela que el 96% de los encuestados en España admite un uso regular de la inteligencia químico generativa entre sus empleados sin medidas que eviten sus riesgos en casi la medio de las entidades (45%). Según otro estudio de la misma compañía, el 25% de quienes usan IA generativa desconocen que esta puede acumular información como la dirección IP, el tipo de navegador y la configuración del beneficiario, así como datos sobre las funciones más utilizadas.

“Los sistemas de inteligencia químico generativa se encuentran en claro crecimiento y, cuanto más tiempo funcionen sin control, más difícil será proteger áreas del negocio”, advierte David Emm, analista principal de seguridad de Kaspersky.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para percibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_



Creditos a Raúl Citrón

Fuente

Leave a comment

0.0/5