Skip to content Skip to footer

James Manyika (Google): “La inteligencia sintético cambiará el mundo, como las computadoras o la electricidad” | Tecnología


James Manyika (57 abriles, Harare, Zimbabue) asegura que la inteligencia sintético (IA) nos rodea hace décadas, solo que la multitud aún no se había donado cuenta. Él ya trabajaba en este campo mucho antaño de convertirse en el vicepresidente de las áreas de Investigación, Tecnología y Sociedad de Google, cargo que desempeña desde hace un año. En ese tiempo, la inteligencia sintético ha saltado desde a las escenas apocalípticas de las películas de ciencia ficción a primera plana de la contemporaneidad mundial. “Hace 25 abriles, cuando hice mi doctorado en robótica, nadie entendía de que estábamos hablando. La multitud sigue sin darse cuenta de que desde mucho antaño de la venida de los chatbots, ya se estaban beneficiando de la inteligencia sintético”, explica a EL PAÍS en Madrid, donde participó el pasado jueves en un evento de Google en el Museo Lázaro Galdiano.

Manyika insiste en que esta revolución se había venido gestando sobre todo durante los últimos 15 abriles, aunque reconoce que ha sido en los últimos meses cuando la irrupción de la inteligencia sintético se ha acelerado, tras el tiro de ChatGPT, el chatbot de IA generativa de OpenAI. Desde el pasado febrero, incluso Google cuenta con su propia aplicación de esta categoría, Bard, que aún no se puede utilizar en España. “Llegará pronto”, garantiza Manyika. “Hay mucho trabajo que hacer porque el castellano es una argot compleja, con muchas variantes. Queremos hacerlo correctamente porque es un asunto muy importante”.

Pregunta. ¿Es posible que estén sobrestimando la importancia de la inteligencia sintético?

Respuesta. No, no creo. Le estamos dando importancia porque es un cambio tan profundo a que afectará a casi todo lo que hacemos. La heredad, la productividad, cómo concebimos la información y el enseñanza. Para mí, la pregunta es cómo conseguir las dos caras de la moneda: asegurarnos de que sea útil para la sociedad y, al mismo, tiempo ser capaces de invadir los desafíos que se nos presentan.

P. ¿Cambiará el mundo?

R. Creo que sí. Lo que combate tan crítico acerca de la IA es que será como las computadoras o la electricidad. Es una tecnología esencial: no puedo imaginar una actividad ni una parte de la sociedad en las que no vaya a ser útil. En ese sentido, pienso que cambiará al mundo. Al mismo tiempo, creo que es tan poderosa y tan útil que incluso traerá consecuencias, riesgos y desafíos muy importantes, con los que tenemos que disputar.

Más de dos tercios de los trabajos serán diferentes. No desaparecerán, simplemente evolucionarán y cambiarán

P. ¿A qué se refiere cuando acento de riesgos?

R. Por un banda, están los riesgos que se dan cuando la tecnología en sí no funciona como queremos que lo haga, cuando resulta imprecisa o errónea. Otros tipos de riesgos son los que tienen a que ver con la privacidad y con el manejo de las informaciones. Y encima, incluso cuando esos dos aspectos funcionan correctamente, es posible hacer un mal uso de esta tecnología. Puede estar de moda con fines criminales, para la desinformación o para crear amenazas a la seguridad doméstico. Además hay una cuarta complicación, que tiene que ver con los bienes secundarios, como el impacto que la IA puede tener en los puestos de trabajo, en la vigor mental y en otros factores socioeconómicos a los que deberíamos prestar atención.

P. De hecho, ya hay personas perdiendo su trabajo a causa de la IA…

R. Hay trabajos en los que las máquinas pueden desempeñar algunas tareas que ahora hacen las personas; y en ellos habrá pérdidas, es cierto. Además se crearán puestos de trabajo, tanto por el aumento de la productividad como por la creación de nuevas categorías. Pero creo que el emoción más prócer, y esto es lo que todos los exploración parecen indicar ahora, es que los trabajos están destinados a cambiar. Hay que pensar en los cajeros de los bancos, que en los abriles 70 del siglo pasado pasaban el 90% de su tiempo contando parné, mientras ahora pasan menos del 10% de su tiempo con esta tarea. Nuestros datos sugieren que más de dos tercios de los trabajos serán diferentes. No desaparecerán, simplemente evolucionarán y cambiarán.

P. ¿Hay que tenerle miedo a la IA?

R. No, pero deberíamos tener cuidado en cómo la usamos. La inteligencia sintético no es poco de los últimos meses, vivimos con ella desde hace abriles. Si miras en dirección a a espaldas en su historia te darás cuenta de que en cuanto alguna de sus aplicaciones se vuelve útil, dejamos de llamarla IA; pero mantenemos el término para las cosas que están por venir o las cosas que nos asustan. No estoy diciendo que no debamos preocuparnos. Pero incluso deberíamos recapacitar todas las formas en las que ya la utilizamos y nos es muy útil.

P. Geoffrey Hinton dejó Google ciertamente para alertar sobre los riesgos de esta tecnología.

R. Conozco correctamente a Jeff. Creo que lo que intentaba hacer, y lo que muchos de nosotros hemos estado intentando hacer, es resaltar que deberíamos adoptar un enfoque preventivo. Porque sí, los beneficios son increíblemente avíos, pero incluso hay preocupaciones que debemos tener en cuenta. Creo que quiso recordarnos a todos los riesgos que conlleva, especialmente a medida que se vuelve más vanguardia. Y pienso que ese enfoque es apropiado.

P. ¿Por qué hay tantos manifiestos apocalípticos firmados por los padres de la IA?

R. Yo mismo firmé una de estas cartas, porque considero fundamental asegurarnos de que se esté prestando la debida atención. Cada vez que tenemos una tecnología poderosa, hay que pensar tanto en sus beneficios como en los riesgos reales. En Google queremos ser audaces y responsables. Sé que esas dos cosas suenan contradictorias pero ambas importan.

P. ¿Regular la IA es una forma de ser responsable?

R. Sí. Estas tecnologías son demasiado importantes como para no ser reguladas. Hace tiempo que lo estamos diciendo públicamente. Cualquier tecnología poderosa que sea tan rompedora y compleja lo necesita, incluso si es tan útil como esta. Si está afectando a la vida de las personas y a la sociedad, tiene que ocurrir alguna forma de regulación.

P. Hay quien pide pausar su incremento hasta que se regule.

R. Estaríamos pausando los beneficios de esta tecnología para las personas. ¿De verdad queremos dejar de expedir alertas de inundaciones a los millones de personas que las reciben hoy en día? ¿Dejar de trabajar en avances en medicina? No creo. Tendría que ocurrir un plan claro sobre qué estaríamos haciendo durante esa pausa y habría que coordinar a todos los que están trabajando en el incremento de la IA. Lo que considero que es importante es asegurarnos de estar en conversación con los gobiernos, para examinar qué queremos hacer y como lo queremos hacer.

P. ¿Hay algún sector donde es peligroso aplicar la IA?

R. No pienso tanto en sectores concretos, sino en el uso que se le da. Una tecnología aplicada en medicina es diferente a la misma tecnología aplicada en el sector del transporte. Los riesgos son diferentes. Estoy de acuerdo en que es necesario reflexionar en cómo se aplica esta tecnología en cada caso. Por ejemplo, por mucho que me guste lo que hacemos con Bard, creo que es una idea terrible pedirle asesoramiento lícito. Ahora, si me pregunta si se debería usar Bard para escribir un análisis y explorar ideas, mi respuesta es por supuesto.

P. ¿Es una buena idea pedirle ayuda si estamos enfermos?

R. Yo no obtendría un dictamen médico de un chatbot. En genérico, si quisiera obtener información factual, iría al buscador de Google. Si quiero aprender qué pasó en Madrid esta mañana, siquiera utilizaría Bard para eso.

P. ¿Cree que los chatbots de IA (como Bard o ChatGPT) pueden aparecer a remplazar a los buscadores?

R. No sé qué están haciendo otras compañías, pero puedo decirle lo que estamos haciendo nosotros. Para nosotros Bard no es lo mismo que Google Search [el clásico buscador de la empresa]. Sí que hay formas en las que estamos incorporando IA y los grandes modelos de habla a Search, pero son dos casos muy diferentes. Lanzamos Bard como un experiencia: estamos tratando de entender por qué la multitud lo está utilizando, para qué es útil. Y todavía estamos aprendiendo. Es importante tener en cuenta que hemos estado utilizando la inteligencia sintético para mejorar la búsqueda durante mucho más tiempo del que la multitud cree. Hace seis abriles, cuando intentabas usar el buscador, probablemente tenías que escribir una consulta harto precisa para que te devolviera poco útil. Hoy ya no tienes que hacerlo. Con escribir poco que sea más o menos correcto es suficiente.

P. ¿Cómo cree que será el círculo en 10 abriles?

R. Creo que será asombroso. Pienso en todas las cosas que podrán beneficiar a la sociedad, por ejemplo la posibilidad de entender miles de idiomas, y me emociona. Ahora mismo nos hemos puesto como objetivo conseguir traducir 2.000 idiomas en Google, pero en diez abriles pienso que podemos aparecer a todas las 7.000 lenguas que se hablan en el mundo, incluso a idiomas que están desapareciendo. Sería extraordinario. Pero, al mismo tiempo, espero que incluso hayamos acabado progresos increíbles a la hora de combatir todos los riesgos de los que hemos hablado.

Parte del miedo que le tenemos a la IA viene de la incapacidad de aceptar que las máquinas incluso pueden hacer cosas creativas

P. ¿Qué debería suceder para que la IA se escape de nuestro control?

R. Que de alguna forma lleguemos a desarrollar sistemas que se diseñan por sí mismos y que sean capaces de crear sus propios objetivos. Eso sería problemático, pero estamos a abriles luz de ello. Esa sería la lectura de ciencia ficción. Una situación más probable y problemática no tendría tanto que ver con la inteligencia sintético fuera de control, sino con las mismas personas. El peligro es que los humanos pongan estas tecnologías al servicio de usos horribles. Sabemos que el mismo sistema que puede descifrar estructuras de proteínas para desarrollar medicamentos incluso podría diseñar toxinas o virus si cae en manos equivocadas. Esto es lo que en realidad me preocupa a corto plazo.

P. ¿De dónde viene entonces el miedo a la inteligencia sintético?

R. [Ríe] De las películas de Hollywood. Lo digo en broma, pero incluso creo que es cierto. Vuelvo a lo que he dicho antaño, a la idea de que cuando esta tecnología empieza a ser útil, simplemente dejamos de llamarla IA. Parece que reservamos esta marbete para cosas que vemos en las películas o cosas que aún no entendemos o están a punto de suceder. Por otro banda, creo que parte de ese miedo se remonta a un creador muy humano, que es una pregunta que la humanidad se hace desde siempre. ¿Qué significa ser humano cuando las máquinas consiguen hacer las cosas que hasta ahora nos diferenciaban de cualquier otro ser vivo? Hasta ahora pensábamos que éramos los únicos capaces de hacer arte, los únicos en tener creatividad y empatía. Pienso que parte de ese miedo viene de la incapacidad de aceptar que las máquinas incluso pueden hacer cosas creativas, que hasta ahora se consideraban exclusivas de los humanos.

P. ¿Podríamos asegurar que lo que nos asusta es que las máquinas puedan hacer poco mejor que nosotros?

R. Tenemos que enfrentarnos a ese miedo. Tenemos que ajustar nuestra forma de pensar y preguntarnos quiénes somos y en qué somos buenos. Hubo un tiempo en que solíamos suponer que solo las personas que podían hacer matemáticas en su capital eran inteligentes. Que si en un examen no podías contar de memoria cosas que habías aprendido en un compendio de texto, probablemente no eras muy inteligente. Solíamos pensar todo esto, pero ahora hemos renovador, y creo que lo mismo sucederá con la IA. Es solo que quizás está sucediendo más rápido de lo que los humanos estamos preparados para absorber. Pero creo que la humanidad siempre se ha adaptado y que seguirá haciéndolo.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para acoger nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites



Creditos a Clara Brascia

Fuente

Leave a comment

0.0/5