Skip to content Skip to footer

Yann LeCun, sabio caudillo de IA de Meta: “Una inteligencia industrial de nivel humano va a admitir mucho tiempo” | Tecnología


El extraordinario potencial y los enormes riesgos de la revolución de la inteligencia industrial (IA) generativa han sido grandes protagonistas en los debates de la reunión anual del Foro Crematístico Mundial en Davos. Nick Clegg y Yann LeCun, presidente de Asuntos Globales y sabio caudillo de IA de Meta, han expresado sus puntos de sagacidad en esta materia en un cruce con periodistas de cinco medios internacionales, entre ellos EL PAÍS.

Meta, compañía matriz de Facebook, es una de las empresas protagonistas de la revolución. Lo es por su extraordinario capacidad en este sector específico, y lo es porque va de la mano del enorme poder que otorga el control de su gigantesca plataforma social, cuya trámite ha acarreado graves críticas y acusaciones en los últimos primaveras, entre otras cosas, por su impacto en la democracia.

En la conversación, LeCun subraya que “contrariamente a lo que se puede escuchar de algunas personas, no existe un diseño para un sistema que valor la inteligencia humana”. El habituado cree que “pedir regulaciones por miedo a la inteligencia sobrehumana es como pedir una regulación de vuelos transatlánticos a una velocidad cercana a la del sonido en 1925. Esto no está a la reverso de la cúspide; va a admitir mucho tiempo, con sistemas que todavía no conocemos”, asegura, y por ello cree que es prematuro establecer pensando en el aventura de que puedan salir del control humano. La UE aprobó en diciembre la primera carta del mundo sobre IA, y otros lugares, como EE UU y el Reino Unido, además trabajan en leyes específicas para controlar esta tecnología.

Clegg, por su parte, exhorta los legisladores que en todo el mundo se ocupan de la materia a regular los productos, pero no la investigación y el expansión. “La única razón por la que puede pensarse que sería útil regular la investigación y el expansión es porque se cree en esta presunción de que los sistemas de IA pueden apoderarse del mundo, o son intrínsecamente peligrosos”, dice Clegg, quien fue viceprimer ministro anglosajón y líder del partido liberaldemócrata de ese país.

Los dos se muestran satisfechos de que, tras un periodo de cierta conmoción luego de la aparición de ChatGPT, el debate conocido se haya alejado de hipótesis apocalípticas y se haya ido centrando en temas más concretos y desafío actuales como la desinformación, los derechos de autor, el golpe a la tecnología.

El estado de la tecnología

“Estos sistemas son inteligentes en un dominio relativamente cercano en el que han sido entrenados. Dominan el idioma y eso nos hace pensar que son inteligentes, pero no lo son tanto”, explica LeCun. “Y nosotros no tenemos la capacidad de simplemente crecer de escalera y evolucionarlos con más datos, con ordenadores más grandes, y por ese camino alcanzar la inteligencia humana. Eso no va a ocurrir. Lo que va a ocurrir es que vamos a tener que descubrir nuevas tecnologías, nuevas arquitecturas de esos sistemas”, aclara el sabio.

El habituado explica que va a ser necesario desarrollar nuevas formas de sistemas de IA “que permitirían a esos sistemas, en primer ocupación, entender el mundo físico, lo que no pueden hacer en este momento. Memorar, lo que siquiera pueden hacer por el momento. Razonar y planificar, poco que siquiera pueden hacer por el momento. Y cuando descubramos cómo construir máquinas que comprendan el mundo, recuerden, planifiquen y razonen, tendremos un camino en dirección a la inteligencia humana”, prosigue LeCun nacido en Francia. En más de un debate y discurso de Davos se ha mencionado la paradoja de que Europa disponga de un hacienda humano muy extraordinario en este sector, pero no de empresas punteras a escalera completo.

“Esto no está a la reverso de la cúspide”, insiste LeCun. El sabio cree que este camino “va a admitir mucho tiempo; primaveras, si no décadas. Va a requerir nuevos avances científicos que no conocemos. Así que conviene preguntarse por qué personas que no son científicos lo dicen, ya que no son los que están en las trincheras intentando que funcione”. El habituado explica que, en estos momentos, tenemos sistemas que pueden aprobar el examen de derecho, pero no tenemos sistemas que puedan levantar la mesa y tirar a la basura.” No es porque no podamos construir un autómata. Es porque no podemos hacerlos lo suficientemente inteligentes. Así que obviamente, nos desatiendo poco alto ayer de que podamos alcanzar el tipo de inteligencia que observamos, no solo en los seres humanos, sino además en los animales. Me alegraría que al final de mi carrera [tiene 63 años] tuviéramos sistemas tan inteligentes como un micifuz o poco similar”, apunta.

El estado de la regulación

El debate sobre cómo regular esta tecnología en su estado contemporáneo y con las posibilidades de expansión cercanas ha sido uno de los asuntos secreto en el foro anual de Davos. La carta que está siendo introducida en la UE, en muchos sentidos pionera, ha sido uno de los principales focos de atención.

Preguntado el respecto, Clegg, que fue eurodiputado y es un europeísta convencido, evita pronunciarse de forma definitiva sobre la materia, pero bichero pullas a la Unión. “Es un trabajo todavía en expansión. Es una cosa muy clásica de la UE. Hay fanfarria, se dice que se ha resuelto poco, pero en existencia es un trabajo que no está terminado. Lo estudiaremos de cerca cuando esté completo y publicado, creo que el diablo en realidad estará en los detalles”, dice el presidente de Asuntos Globales de Meta.

“Por ejemplo, en cuanto a la transparencia de los datos en estos modelos, todo el mundo está de acuerdo”, prosigue Clegg. “¿Pero qué nivel de transparencia? ¿Son los conjuntos de datos? ¿Se proxenetismo de datos individuales? O, por ejemplo, en derechos de autor. En la UE ya existe una carta sobre derechos de autor. ¿Simplemente se va a lindar a eso? ¿O se va finalmente a añadir una nueva capa específica? Cuando se entrenan estos modelos, se devoran una enorme cantidad de datos. Etiquetar cada bit de datos por razones de propiedad intelectual es de una complejidad extraordinaria. Así que creo que el problema está en los detalles. Lo estudiaremos”.

A partir de ahí, afloran críticas. “Personalmente, como apasionado europeo, a veces me frustra un poco que en Bruselas parezcan preciarse de ser los primeros en establecer, más que de si la carta es buena o no. Hay que recapacitar que esta Ley de Inteligencia Químico de la UE fue propuesta inicialmente por la Comisión Europea hace tres primaveras y medio, ayer de que estallara todo el asunto de la IA generativa [como ChatGPT]. Y luego trataron de adaptarla a través de una serie de enmiendas, disposiciones para tratar de entender la última progreso de la tecnología. Es una forma congruo torpe de establecer, una adecuación, para poco tan importante como la IA generativa”.

El debate entre establecer protecciones y evitar entorpecer el expansión genera fuertes tensiones, adentro de la política, y entre política y sector privado. En esa vírgula sutil que tienen que trazar los legisladores se juega un valía incalculable: productividad, puestos de trabajo, capacidades que definirán el oscilación de poder geopolítico.

Clegg toca ese nervatura. “Sé que Francia y Alemania, Italia en particular, han estado, creo, pidiendo sensatamente a los eurodiputados y a la Comisión Europea que tengan mucho cuidado de no incluir en la carta poco que en realidad obstaculice la competitividad europea. Porque de las diez empresas más grandes del mundo, ninguna es europea”. Por contra, un familia de expertos reclamó a la UE, en una carta abierta que publicó EL PAÍS, una carta aún más esforzado “para proteger los derechos de los ciudadanos y la innovación”.

Optimismo y prudencia

Por debajo de ese enorme pulso de poder avanza una tecnología que, si correctamente no está cerca de alcanzar plenamente niveles humanos o sobrehumanos, ha entrado ya con una fuerza extraordinaria en nuestras vidas.

“La IA amplifica la capacidad correctiva de la inteligencia humana. Hay un futuro en el que todas nuestras interacciones con el mundo digital serán mediadas por un sistema de IA”, dice LeCun. “Lo que eso significa esto es que, en algún momento, esos sistemas de IA serán más inteligentes que nosotros en ciertas áreas, de hecho en algunas ya lo son, y tal vez más inteligentes que nosotros en todas las áreas en algún momento. Y lo que eso significa es que vamos a tener asistentes con nosotros en todo momento, que son más inteligentes que nosotros. ¿Deberíamos sentirnos amenazados por esto? ¿O deberíamos sentirnos fortalecidos? Yo creo que deberíamos sentirnos fortalecidos”.

A lo prolongado de la entrevista, LeCun introduce varios principios de prudente optimismo. “Si usted piensa en el huella que esto podría tener en la sociedad a prolongado plazo, podría tener un huella similar a la invención de la imprenta. Así que, básicamente, crear un nuevo Renacimiento en el que puede ser más inteligente, es intrínsecamente bueno. Ahora, por supuesto, hay riesgos. Y hay que desplegar la tecnología de forma responsable, de guisa que se maximicen los beneficios y se mitiguen los riesgos o se minimicen”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para acoger nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_



Creditos a Andrea Rizzi

Fuente

Leave a comment

0.0/5