Tecnología

Inteligencia sintético: Geoffrey Hinton, el ‘padrino’ de la IA, deja Google y avisa de los peligros de esta tecnología | Tecnología


El anglosajón Geoffrey Hinton, uno de los grandes pioneros en el exposición de la inteligencia sintético (IA), ha dejado su trabajo en Google para poder advertir con veterano permiso de los peligros que plantean estas nuevas tecnologías, según dijo en una entrevista publicada este lunes por The New York Times.

A menudo llamado el padrino de la IA, Hinton aseguró que a sus 75 primaveras lamenta ahora activo dedicado su carrera a este ámbito. “Me consuelo con la excusa ordinario: si no hubiese sido yo, otro lo habría hecho”, señaló al diario neoyorquino. La voz de señal de este avezado se suma a las advertencias que en los últimos meses han hecho otros expertos, sobre todo a raíz del tiro de la inteligencia sintético generativa como el popular ChatGPT y las grandes apuestas que los gigantes tecnológicos están haciendo en este ámbito.

“Es difícil ver cómo se puede evitar que los malos actores lo usen para cosas malas”, dijo Hinton en la entrevista, en la que avisa sobre la excesiva velocidad a la que se están logrando avances. “Mire cómo era hace cinco primaveras y cómo es ahora”, apuntó. “Tome la diferencia y propáguela en dirección a delante. Eso asusta”, señaló Hinton, que el año pasado recibió el Premio Princesa de Asturias de Investigación Científica y Técnica unido a otros tres pioneros de la IA por su trabajo.

A corto plazo, este avezado teme sobre todo que internet se vea inundada de falsos textos, fotos y vídeos, y que los ciudadanos no puedan ser capaces de distinguir lo que es verdadero, pero todavía cree que estas tecnologías pueden reemplazar a muchos trabajadores y, más delante, suponer incluso una amenaza para la humanidad. “La idea de que estas cosas en sinceridad podrían volverse más inteligentes que las personas, algunos lo creían”, explicó. “Pero la mayoría de la parentela pensaba que estaba muy acullá. Yo pensaba que estaba muy acullá. Creía que faltaban entre 30 y 50 primaveras o incluso más. Obviamente, ya no pienso eso”, añadió.

En su opinión, se deberían frenar los trabajos en este ámbito hasta que se entienda admisiblemente si será posible controlar la IA, una idea en trayecto con otros llamamientos públicos de personalidades del sector tecnológico que han pedido suspender temporalmente los experimentos. Hace unas semanas se conocía que más de un millar de empresarios, intelectuales e investigadores de primer nivel relacionados con esta tecnología habían firmado una carta abierta en la que solicitan una moratoria en su exposición para recordar sobre sus consecuencias.

Más concretamente, estos expertos pedían una pausa de “al menos seis meses en el exposición y pruebas de sistemas de IA más poderosos que GPT4″, la última traducción del gran maniquí de idioma que usa ChatGPT. La carta advierte de que este postrero maniquí ya es capaz de competir con los humanos en un creciente número de tareas, y que podría estilarse para destruir empleo y difundir desinformación. Por ello, reclaman un exposición seguro y solo cuando estén seguros de que sus pertenencias serán positivos. “Desafortunadamente”, asegura la carta, “este nivel de planificación y dirección no está ocurriendo, a pesar de que en los últimos meses los laboratorios de IA han entrado en una carrera sin control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable”.

A través de Twitter, Hinton quiso puntualizar después que no deja Google para poder criticar a la empresa, sino para poder departir de los peligros de la inteligencia sintético sin tener que preocuparse del impacto que esas opiniones causarían en la compañía en la que trabajaba, una empresa que según él “ha actuado de forma muy responsable”.

Geoffrey Hinton, profesor de la Universidad de Toronto (Canadá) y premio Fundación BBVA Fronteras del Conocimiento en 2017, desarrolló en 2004 los conceptos en los que se ha venido trabajando desde hace medio siglo y los ha orientado al enseñanza mecánico y gratitud de medios tan complejos como el palabra o la imagen. Hinton creó una comunidad de investigación a la que se sumaron Yann LeCun, de la Universidad de New York, y Yoshua Bengio, de la de Montreal (Canadá). En 1986, Hinton inventó los algoritmos de retropropagación, fundamentales para el entrenamiento de redes neuronales. Con ellos, en 2012 consiguió crear una red neuronal convolucional llamamiento AlexNet, compuesta por 650 000 neuronas y entrenada con 1,2 millones de imágenes, que registró tan solo un 26% de errores en el gratitud de objetos y redujo a la parte el porcentaje de sistemas anteriores. LeCun sumó una tecnología de gratitud óptico de caracteres.

“No me gustaban las primeras teorías de la inteligencia sintético (IA) porque se basaban mucho en la razonamiento y eso es poco que los humanos tardamos mucho en desarrollar”, explicó Hinton a EL PAÍS tras la concesión de su premio. El investigador explicó que estaba más interesado en conocer cómo funciona el cerebro humano, cuáles son los fundamentos del enseñanza y en despabilarse la forma de aplicar esos principios a las máquinas. “El cerebro humano es la mejor máquina. Mi objetivo era comprender cómo trabaja la parentela y fingir ese sistema y creo que la mejor modo de hacerlo es construir modelos de redes neuronales artificiales”, explicó.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para aceptar nuestra newsletter semanal.



Creditos a EFE

Fuente

Related Articles

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top button