Icono del sitio Cápsula Virtual

“Como con el cambio climático”: un agrupación de expertos reclama la creación de un panel entero que vigile los peligros tecnológicos | Tecnología


Investigadores especialistas en tecnologías de la información, desde la computación al periodismo, reclaman la creación de un organismo intergubernamental para monitorear el avance del avance tecnológico. En un artículo publicado en Nature, sugieren que se prostitución de una amenaza con características similares a las de la crisis climática y, luego, reclaman que se cree una entidad equiparable al Especie Intergubernamental de Expertos sobre el Cambio Climático o (IPCC, por sus siglas en inglés), en el que especialistas de diferentes áreas como la política, ingeniería o la ética se sienten juntos para custodiar de forma coordinada a los sistemas de distribución de información entero. Eso incluiría la banca en renglón, las redes sociales, los motores de búsqueda (como Google) y los modelos generativos de idioma, como ChatGPT.

No son los únicos que están preocupados. Hace menos de dos meses, Elon Musk, el cofundador de Apple Steve Wozniak y el historiador Yuval N. Harari firmaron, pegado a millares de expertos, una carta abierta para frenar la carrera sin control de la inteligencia fabricado (IA). Ayer en el Capitolio, Sam Altman, cofundador de la empresa creadora de ChatGPT, se sentó por primera vez frente a la Comisión Legislativo para pedir a una representación urgente y abogó por crear una ordenamiento internacional que establezca estándares para la inteligencia fabricado al estilo de cómo se ha hecho en el pasado con “las armas nucleares”. Geoffrey Hinton, padrino de esta tecnología, abandonó Google y asegura: “Si hay alguna forma de controlar la inteligencia fabricado, debemos descubrirla antiguamente de que sea tarde”.

En el comentario publicado en Nature, los expertos coinciden en que los riesgos que genera el cambio climático o la degradación del medio hábitat tienen la misma complejidad, escalera e importancia a los que presenta el manejo de información a nivel entero, que está en las manos de pocas empresas. Según sostienen, la toma de decisiones mediante algoritmos puede exacerbar los prejuicios sociales ya existentes y suscitar nuevas formas de desigualdad en diferentes aspectos. En el caso del camino a la vivienda, citan que los algoritmos para orientar a los propietarios de casas de locación, “han apoyado dinámicas similares a las de los cárteles” con respecto a las restricciones de la proposición y de precio. Y los algoritmos que dirigen a la policía con destino a potenciales zonas de incorporación criminalidad, al utilizar datos sobre la ubicación de detenciones anteriores, “pueden exacerbar los sesgos existentes en el sistema de neutralidad penal”.

Con respecto a las redes sociales, consideran que la velocidad en que los contenidos son creados y compartidos dan ganancia para más desinformación y el discurso de odio. Mientras tanto, la IA generativa ya amenaza las estructuras laborales de industrias enteras y desafía la percepción social sobre las bases del conocimiento estudiado. “ChatGPT podría vulnerar contra la comprensión pública de la ciencia al impulsar la producción de textos que contienen falsedades e irrelevancias a una escalera industrial”, critican. Y añaden: “El mundo no está preparado culturalmente o legalmente”.

Conocimiento y transparencia

El objetivo de este agrupación multidisciplinar que proponen no sería la búsqueda de un consenso internacional o un avance legal, sino proporcionar “una cojín de conocimientos que sustente las decisiones de gobiernos, grupos humanitarios o hasta empresas” en una escalera entero. “De la misma modo que organismos como el IPCC de las Naciones Unidas realizan evaluaciones del cambio ambiental entero que sirven de cojín a las políticas, se necesita ahora un agrupación análogo para comprender y asaltar el impacto de las nuevas tecnologías de la información en los sistemas sociales, económicos, políticos y naturales del mundo”, escriben en la nota, que ha sido firmado por Joe Bak-Coleman, investigador del Centro Craig Newmark para Periodismo, Ética y Seguridad de la Universidad de Columbia y Carl T. Bergstrom, profesor de Biologia de la Universidad de Washington, entre otros expertos.

Un agrupación de este carácter, dicen, tendría más influencia que los investigadores independientes o las organizaciones sin humor de rendimiento a la hora de convencer a las grandes tecnológicas de que sean más transparentes. Según opinan, esas empresas están “desplegando una serie de tácticas” para influir en la percepción social sobre sus herramientas y todavía para frenar a la investigación científica externa. Por ejemplo, al confinar el tipo de datos disponibles para investigar, que a menudo tan solo incluyen información sobre el comportamiento de los usuarios, más que en el diseño o funcionamiento de las propias plataformas. “Como investigadores independientes, sopesamos continuamente los riesgos de que las empresas emprendan acciones legales contra nosotros por las actividades académicas básicas: resumir y compartir datos, analizar hallazgos, informar artículos y distribuir resultados”, argumentan en su comentario.

“Un agrupación intergubernamental que represente los intereses de los Estados miembros de la ONU podría identificar cuándo los niveles actuales de transparencia no generan suficiente información”

Para ejemplificarlo, resaltan que en 2021, Meta, propietaria de Facebook, envió una notificación de cese a unos investigadores de la Universidad de Nueva York que habían creado una extensión de navegador para resumir datos sobre la publicidad dirigida en la plataforma. “Por conversaciones con colegas, sabemos que desde entonces se ha disuadido a otros de realizar este tipo de trabajo”, detallan.

Otro de los ejemplos que expresan cómo las redes sociales promueven contenido tóxico se dio cuando Facebook puso sus documentos a disposición de la Comisión de Bolsa y Títulos de los Estados Unidos en 2021. En esa ocasión, quedó claro que su cálculo calificó las reacciones emoji como cinco veces más valiosas que los “me gusta” a lo dilatado de tres primaveras. En este periodo, los datos internos mostraban que las publicaciones con el emoji de enfado tenían más probabilidades de incluir contenido potencialmente dañino y hipócrita, como afirmaciones incorrectas sobre las vacunas.

Hasta ahora, los intentos de administrar los ecosistemas de información digital han consistido en implantar barreras para proteger los datos de los usuarios, pero no han mostrado cómo evaluar y evitar a los daños de forma fiable. A diferencia del problema del cambio climático, caracterizado por la cantidad de datos, con causas y consecuencias comparativamente adecuadamente comprendidas, y unos perjuicios económicos cuantificables y evidentes a dilatado plazo, los riegos de las tecnologías de información es, todavía, un circunscripción poco conocido. Principalmente, porque hace desidia transparencia por parte de quienes los dominan: “Un agrupación intergubernamental que represente los intereses de los Estados miembros de la ONU podría identificar cuándo los niveles actuales de transparencia no generan suficiente información”.

Un panel como este, argumentan, todavía tendría credibilidad en países no occidentales, lo que consideran “crucial” al paso que las repercusiones de las tecnologías digitales cruzan las fronteras y se manifiesten en contextos culturales diferentes. “Aunque países como China, Rusia y Estados Unidos no se pongan de acuerdo sobre cómo deben las plataformas y servicios deben ser liberados o limitadas, las consecuencias del mundo digital trascienden las fronteras internacionales. Cualquier esperanza de negociación entre naciones requiere una imagen más clara de lo que está ocurriendo y por qué, y cuáles son las respuestas políticas disponibles”.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para cobrar nuestra newsletter semanal.



Creditos a Emanoelle Santos

Fuente

Salir de la versión móvil