Skip to content Skip to footer

Geoffrey Hinton: “Si hay alguna forma de controlar la inteligencia sintético, debemos descubrirla antiguamente de que sea tarde” | Tecnología

Geoffrey Hinton anunció el lunes que ha renunciado a su puesto como vicepresidente de ingeniería de Google. Quiere dedicarse a alertar sobre el reverso tenebroso de la inteligencia sintético (IA), según dijo en una entrevista concedida a The New York Times. La suya no es una descenso cualquiera: nacido en Wimbledon hace 75 primaveras, este sajón sensato en Canadá es una lema en la disciplina. Su trabajo ha sido fundamental para ilustrar algunas técnicas que han hecho posible ChatGPT, los traductores automáticos o los sistemas de visión de los vehículos autónomos. Hinton cree ahora que la tecnología que tanto ha ayudado a desarrollar puede llevarnos al fin de la civilización en cuestión de primaveras.

La obsesión de este comprobado siempre fue estudiar cómo funciona el cerebro para tratar de replicar esos mecanismos en los ordenadores. En 1972 acuñó el concepto de red neuronal. La idea de fondo es aplicar matemáticas al exploración de datos para que el sistema sea capaz de desarrollar habilidades. Su propuesta no convenció en la época; hoy, las redes neuronales son la punta de pica de la investigación en IA. El gran momento de Hinton llegó en 2012, cuando demostró el real potencial de su término de investigación con una red neuronal que podía analizar miles de fotografías y memorizar por sí sola a distinguir ciertos objetos, como flores, coches o perros. Igualmente entrenó un sistema para que fuera capaz de predecir las siguientes trivio de una frase inacabada, un antecesor de los actuales grandes modelos lingüísticos como el de ChatGPT.

Su trabajo le valió el Premio Turing, considerado el Nobel de la informática, que recibió en 2018 unido a otros investigadores como Yann LeCun, exalumno suyo, o Yoshua Bengio. Igualmente tiene en sus vitrinas el Premio Princesa de Asturias de Investigación Científica o el premio Fronteras del Conocimiento que concede la Fundación BBVA. Hinton atiende a EL PAÍS por videoconferencia desde su casa de Londres, donde se ha trasladado tras dejar Google.

Pregunta. ¿Cuáles son los peligros de la IA a los que nos enfrentamos?

Respuesta. Hay muchos. La procreación de noticiario falsas ya está causando grandes divisiones en la sociedad. La matanza de ciertos tipos de trabajo tendrá un impacto en el empleo. Aumentará la disparidad de riqueza entre los ricos y los pobres. Esos son algunos de los peligros inminentes, aunque yo no me centro en esos, sino en otro de carácter existencial. Hace poco me di cuenta de que el tipo de inteligencia digital que estamos desarrollando podría ser una forma de inteligencia mejor que la de los cerebros biológicos. Siempre pensé que la IA o el enseñanza profundo intentaban imitar el cerebro, aunque no podían igualarlo: el objetivo era ir mejorando para que las máquinas se parecieran más y más a nosotros. He cambiado de postura en los últimos meses. Creo que podemos desarrollar poco que es mucho más valioso que el cerebro porque es digital.

P. ¿Por qué lo cree?

R. El argumento es el venidero. Con un sistema digital, podrías tener muchísimas copias de exactamente el mismo maniquí del mundo. Estas copias pueden funcionar en distintos hardwares. De este modo, diferentes copias podrían analizar datos diferentes. Y todas estas copias pueden conocer al instante lo que las demás han aprendido. Lo hacen compartiendo sus parámetros. No podemos hacer eso con el cerebro. Nuestras mentes han aprendido a utilizar todas sus propiedades de forma individual. Si te diera un plano detallado de las conexiones neuronales de mi cerebro, no te serviría de mínimo. Pero en los sistemas digitales, el maniquí es idéntico. Todos usan el mismo conjunto de conexiones. Así, cuando uno aprende cualquier cosa, puede comunicárselo a los demás. Y es por eso que ChatGPT puede conocer miles de veces más que cualquier persona: porque puede ver miles de veces más datos que nadie. Eso es lo que me asusta. Tal vez esta forma de inteligencia sea mejor que la nuestra.

Por lo que sabemos hasta ahora sobre el funcionamiento del cerebro humano, probablemente nuestro proceso de enseñanza es menos valioso que el de los ordenadores

P. Usted lleva décadas trabajando en esta disciplina. ¿Cómo ha llegado ahora a esta conclusión?

R. Ha sido al tratar de examinar cómo un cerebro podría implementar los mismos procedimientos de enseñanza que se utilizan en inteligencias digitales como las que están detrás de ChatGPT-4. Por lo que sabemos hasta ahora sobre el funcionamiento del cerebro humano, probablemente nuestro proceso de enseñanza es menos valioso que el de los ordenadores.

P. ¿Puede la IA ser en realidad inteligente si no entiende lo que significan las palabras o sin tener intuición?

R. El enseñanza profundo, si lo comparas con la IA simbólica [la corriente dominante en la disciplina hasta la irrupción de las redes neuronales, que trataba de que la máquina aprendiese palabras y números], es un maniquí de intuición. Si tomas la dialéctica simbólica como remisión, si crees que así es como funciona el razonamiento, no puedes replicar a la pregunta que te voy a hacer. Pero si tienes un maniquí informático de intuición, la respuesta es obvia. Así que esta es la pregunta: sabes que hay gatos machos y hembras, y sabes que hay perros machos y hembras. Pero supongamos que te digo que tienes que nominar entre dos posibilidades, ambas ridículas: todos los gatos son machos y los perros son hembras, o todos los gatos son hembras y todos los perros son machos. En nuestra civilización, tenemos congruo claro que tiene más sentido que los gatos sean hembras, porque son más pequeños, más listos y les rodean una serie de estereotipos, y que los perros sean machos, porque son más grandes, más estúpidos, más ruidosos, etcétera. Repito, no tiene ningún sentido, pero forzados a escoger, creo que la mayoría diría lo mismo. ¿Por qué? En nuestra mente representamos al pícaro y al perro, al hombre y a la mujer, con grandes patrones de actividad neuronal basándonos en lo que hemos aprendido. Y asociamos entre sí las representaciones que más se parecen. Ese es un razonamiento intuitivo, no razonable. Así es como funciona el enseñanza profundo.

El CEO de Alphabet (empresa matriz de Google), Sundar Pichai, y el de OpenAI, Sam Altman, llegan el jueves a la Casa Blanca para asistir a una reunión sobre inteligencia artificial con la vicepresidenta Kamala Harris.
El CEO de Alphabet (empresa matriz de Google), Sundar Pichai, y el de OpenAI, Sam Altman, llegan el jueves a la Casa Blanca para asistir a una reunión sobre inteligencia sintético con la vicepresidenta Kamala Harris.Evan Vucci (AP)

P. Usted sostiene que hasta ahora pensaba que la IA llegaría a exceder a la inteligencia humana en unos 30 o 50 primaveras. ¿Cuánto cree que queda ahora?

R. De cinco a 20 primaveras.

P. Eso está a la envés de la cumbre.

R. No confío mucho en mi pronóstico porque creo que me equivoqué en el primero, pero está claro que todo se ha acelerado.

P. ¿Cree que la IA llegará a tener su propio propósito u objetivos?

R. Esa es una cuestión secreto, quizás el viejo peligro que rodea a esta tecnología. Nuestros cerebros son el fruto de la cambio y tienen una serie de metas integradas, como no magullar el cuerpo, de ahí la conocimiento del daño; ingerir lo suficiente, de ahí el penuria; y hacer tantas copias de nosotros mismos como sea posible, de ahí el deseo sexual. Las inteligencias sintéticas, en cambio, no han evolucionado: las hemos construido. Por lo tanto, no necesariamente vienen con objetivos innatos. Así que la gran pregunta es, ¿podemos asegurarnos de que tengan metas que nos beneficien a nosotros? Este es el llamado problema del alineamiento. Y tenemos varias razones para preocuparnos mucho. La primera es que siempre habrá quienes quieran crear robots soldados. ¿O cree que Putin no los desarrollaría si pudiera? Eso lo puedes conseguir de forma más valioso si le das a la máquina la capacidad de ocasionar su propio conjunto de objetivos. En ese caso, si la máquina es inteligente, no tardará en darse cuenta de que consigue mejor sus objetivos si se vuelve más poderosa.

Deberíamos poner tanto esfuerzo en desarrollar esta tecnología como en asegurarnos de que sea segura

P. ¿Qué debemos hacer ahora?

R. Hay que designar la atención de la parentela sobre este problema existencial que supone la IA. Ojalá tuviera una opción, como en el caso de la emergencia climática: hay que dejar de mosquear carbono, aunque haya muchos intereses que lo impidan. No conozco ningún problema equivalente al de la IA. Así que lo mejor que se me ocurre en este momento es que deberíamos poner tanto esfuerzo en desarrollar esta tecnología como en asegurarnos de que sea segura. Y eso no está sucediendo en la hogaño. ¿Cómo se logra eso en un sistema capitalista? Eso no lo sé.

P. ¿Cree que parte del problema reside en el hecho de que el mejora de la IA lo están llevando a promontorio empresas privadas?

R. Así ha sido durante los últimos primaveras. Google desarrolló internamente chatbots como LaMDA, que eran muy buenos, y deliberadamente decidió no abrirlos al sabido porque estaban preocupados por sus consecuencias. Y así fue mientras Google lideraba esta la tecnología. Cuando Microsoft decidió poner un chatbot inteligente en su buscador Bing, Google tuvo que replicar porque operan un sistema competitivo. Google se comportó de forma responsable, y no quiero que la parentela piense que me fui para despellejar a la compañía. Dejé Google para poder advertir sobre los peligros sin tener que pensar en el impacto que pueda causar en su negocio.

P. ¿Ha hablado de su osadía con otros colegas? ¿Tienen las mismas preocupaciones que usted?

R. Hemos entrado en un zona completamente desconocido. Somos capaces de construir máquinas más fuertes que nosotros, pero aun así tenemos el control. ¿Qué pasa si desarrollamos máquinas más inteligentes que nosotros? No tenemos experiencia en tratar estas cosas. Hay parentela a la que respeto, como mi colega Yann LeCun, que cree que lo que digo no tiene sentido. Sospecho que en realidad tenemos que pensar mucho en esto. Y no baste con proponer que no vamos a preocuparnos. Muchas de las personas más inteligentes que conozco están seriamente preocupadas. Es lo que me ha convencido a dar un paso delante y usar mi reputación para que la parentela se dé cuenta de que se prostitución de un problema muy difícil.

No sirve de mínimo esperar a que la IA sea más registro que nosotros, debemos controlarla a medida que se desarrolla

P. Usted no firmó la carta suscrita por más de un millar de expertos en IA que solicitaba una moratoria de seis meses en la investigación. ¿Por qué?

R. Creo que ese enfoque es completamente ingenuo. No hay forma de que eso suceda. Aun salvando la competencia entre las grandes empresas, está la de los países. Si EE UU decidiera dejar de desarrollar IA, ¿en realidad cree que China se detendría? La idea de detener la investigación apasionamiento la atención de la parentela sobre el problema, pero no va a suceder. Con las armas nucleares, cedido que la parentela se dio cuenta de que todos perderíamos si había una desavenencia nuclear, fue posible conseguir tratados. Con la IA será mucho más complicado porque es muy difícil comprobar si la parentela está trabajando en ello.

P. ¿Qué propone, entonces?

R. Lo mejor que puedo encargar es que muchas personas muy inteligentes traten de examinar cómo contener los peligros de estas cosas. La IA es una tecnología fantástica, está provocando grandes avances en la medicina, en el mejora de nuevos materiales, en la previsión de terremotos o inundaciones… Necesitamos mucho trabajo para entender cómo contener la IA. No sirve de mínimo esperar a que la IA sea más registro que nosotros, debemos controlarla a medida que se desarrolla. Igualmente tenemos que comprender cómo contenerla, cómo evitar sus malas consecuencias. Por ejemplo, creo que todos los gobiernos deberían insistir en que todas las imágenes falsas lleven un distintivo.

P. ¿Es jovial sobre el futuro que nos aguarda?

R. Tiendo a ser una persona congruo jovial. Hay posibilidades de que no tengamos forma de evitar un mal final. Pero está claro que además tenemos la oportunidad de prepararnos para este batalla. Necesitamos mucha parentela creativa e inteligente. Si hay alguna forma de prolongar la IA bajo control, necesitamos descubrirla antiguamente de que sea demasiado inteligente.

P. ¿Confía en que los gobiernos encuentren la forma de regular esta tecnología?

R. En Estados Unidos, el sistema político es incapaz de tomar una osadía tan simple como no dar fusiles de asalto a los adolescentes. Eso no aporta mucha confianza sobre cómo van a manejar un problema mucho más complicado como este.

P. El verano pasado, el ingeniero de Google Blake Lemoine se hizo renombrado en todo el mundo al proponer que el chatbot en el que trabajaba, LaMDA, había cobrado conciencia. ¿Fue ese caso premonitorio de lo que se nos venía encima?

R. Creo que lo que pasó encierra dos debates distintos. Primero, ¿se volverán las máquinas más inteligentes que nosotros para poder tomar el mando? Y segundo, ¿son conscientes o sensibles, o lo que sea que quiera proponer eso? El debate más importante es el primero; en el segundo intervienen las creencias personales, y a mí eso no me interesa. En cualquier caso, me sorprende que haya muchísimas personas que están muy seguras de que las máquinas no son conscientes, pero que al mismo tiempo no sepan aclarar qué significa que poco o alguno sea consciente. Me parece una posición estúpida.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para percibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites



Creditos a Manu González Pascual

Fuente

Leave a comment

0.0/5