Eliza, Terminator y el peligro encubierto de ChatGPT | Tecnología

Era 1966 cuando Joseph Weizenbaum, pionero de la inteligencia sintético en el MIT, descubrió que tenía poco incómodo entre manos. Había desarrollado uno de los primeros chatbots, una computadora capaz de fingir una conversación humana con bastante éxito. Se llamaba Eliza, y se convertiría en un hito para esa tecnología incipiente. Pero todavía en un punto de inflexión para su inventor, luego de observar el impresión que ejercía sobre las personas. Weizenbaum quedó horrorizado tras dejar que su secretaria usara Eliza: al límite de un rato, le pidió que saliera de la habitación para tener intimidad en su conversación con la máquina. La puntualización sirve para descubrir con perspectiva el aberración flagrante del ChatGPT.
Eliza, en su traducción Doctor, había sido creada como una parodia de las respuestas de los psicoterapeutas que devolvían en forma de preguntas las afirmaciones de los usuarios. La intención era “demostrar que la comunicación entre una persona y una máquina era superficial”, pero al ver que su secretaria y muchas más personas se abrían por completo al dialogar con Eliza, Weizenbaum descubrió una verdad muy distinta. “No me había cubo cuenta de que incluso cortísimas exposiciones a programas relativamente simples podrían inducir poderosos pensamientos ilusorios en masa común”, escribió después.
El software de Weizenbaum era muy elemental, remotamente de la sofisticación de las actuales inteligencias conversacionales que acaparan titulares y llenan las redes con ejemplos espectaculares. Pero el impresión que provocan es el mismo que Eliza, como demostró el ingeniero de Google convencido de que LaMDA, otra de estas máquinas, tenía la conciencia de un inmaduro de siete primaveras. Seguimos proyectando capacidades humanas en las máquinas porque nosotros, los humanos, todavía estamos programados para charlar. Como explica el neurocientífico Mariano Sigman, lo que nos define como especie es que somos animales conversacionales: nos definimos, moldeamos y realizamos a través de las palabras que compartimos con otros. Dialogar está en nuestro ADN y el cerebro resuelve esa disonancia cognitiva aceptando que ese software, aunque sepamos que es una caja negra de silicio, es un ser que quiere comunicarse con nosotros.
Luego de Eliza llegaría Parry, que simulaba ser un esquizofrénico, y más tarde Alice o Siri, o las más recientes y conocidas para el sabido castellano, como Irene de Renfe y Bea en Bankia (asistentes virtuales desarrolladas en España). En lo peor de la crisis de reputación del faja, con la investigación a Rodrigo Rato por sus presuntos delitos, fue Bea la que mantuvo en pie la página web de la entidad con su capacidad para darle palique a quienes entraban en tromba para saturar sus sistemas y tumbar el portal. La masa no podía resistirse a volcar su indignación con insultos personificadores alrededor de ella.
Weizenbaum no entendía que la masa tomara a Eliza como el primer paso alrededor de una máquina que pudiera disimular la inteligencia humana. Pensaba que era una antojo peligrosa y que era “monstruosamente incorrecto” entenderlo como poco más que un simple software que ejecutaba una función. Weizenbaum abandonó Eliza y se convirtió en un crítico de la idea de que las máquinas podían ser inteligentes, porque inocular ese ámbito mental en la sociedad sería “un tóxico de impresión retardado”.
Las palabras de este pionero resuenan ahora en objeciones como la que hace Emily Bender, que insiste en repetir que ChatGPT no tienen ausencia de mágico, sino que tan solo se proxenetismo de un locuaz. Un locuaz sofisticadísimo y con muchas lecturas (”casual”, matiza ella), pero un locuaz. Esta filólogo computacional es una de las mayores críticas de los impulsores de estos programas que ya lo inundan todo. Herramientas que serán muy bártulos y que revolucionarán muchas actividades, sin superficie a dudas, pero que adolecen de regulación y transparencia. Bender reclama que las compañías que impulsan estos chats dejen de platicar en primera persona, como si fueran un ser consciente: “Deben dejar de hacerla parecer humana. No debería estar hablando en primera persona: no es una persona, es una pantalla”. “Quieren crear poco que parezca más mágico de lo que es, pero en existencia es la máquina creando la ilusión de ser humana”, denuncia Bender. “Si algún está en el negocio de entregar tecnología, cuanto más mágica parezca, más casquivana será venderla”, zanja. Es un truco comercial al que no podemos resistirnos. Como Geppetto, queremos que el inmaduro de madera sea un inmaduro de verdad.
Liberando a Skynet
Ahora, las grandes tecnológicas están liberando por todos sus servicios programas inteligentes en los que llevaban primaveras trabajando, pero que no se habían atrevido a diseminar entre los usuarios hasta que llegó la moda, el hype, de ChatGPT. Por ejemplo, Google va a incluirla en su utensilio para empresas, Workspace, y Microsoft adentro de Office. Eso ha generado una arranque de interés y todavía críticas interesantes (e interesadas), como la carta abierta que firmaban el miércoles un millar de especialistas en la que pedían una moratoria de seis meses en el mejora de chatbots. “Los laboratorios de IA han entrado en una carrera sin control”, denuncian, “para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable”. La carta la firma Elon Musk, que impulsó en su origen OpenAI —la empresa que ha creado ChatGPT— y que, tras intentar controlarla, ahora proxenetismo de trabar.
¿Cuál es el problema? Que los riesgos que describen Musk y los demás firmantes son futuristas y de ciencia-ficción, no los reales y acuciantes. Hablan del peligro de crear “mentes no humanas que eventualmente podrían superarnos en número, ser más astutas, obsoletas y reemplazarnos” y de que podríamos “perder el control de nuestra civilización”. Eso no va a tener lugar ni hoy ni mañana: no estamos en un momento en el que Skynet, la malvada inteligencia, vaya a liberar un Terminator como en la famosa película. La viejo amenaza que tenemos hoy con la inteligencia sintético es que sus capacidades están concentrando más poder, riqueza y posibles en un pequeño puñado de empresas: Google, Microsoft, Facebook, Amazon, etcétera. Precisamente, las mismas compañías que están acaparando todos los desarrollos y la investigación en ese campo, esquilmando las universidades, y dirigiendo todos los avances alrededor de sus intereses comerciales, como denunciaba un estudio fresco en Science. Por ejemplo: el primer firmante de esa carta, cercano a Musk, es Yoshua Bengio, padre de la inteligencia sintético desde la Universidad de Montreal, que vendió su empresa de formación profundo a Microsoft y pasó a convertirse en asesor de la compañía. Ahora, Microsoft ha invertido 10.000 millones de dólares en OpenAI, para luego integrar el chatbot en su buscador. Las empresas más poderosas del planeta fagocitan hoy todo un campo esencial de investigación, mientras la carta alerta de una futurible distopía en forma de Terminator.
Sin incautación, la masa desconfía. Un estudio fresco preguntó a más de 5.000 españoles por su percepción de la inteligencia sintético y dio con un resultado resultón: el temor a esos desarrollos surge del suspicacia alrededor de los intereses económicos de quienes los promueven. Para entendernos: no se teme a Terminator, sino a Cyberdyne Systems, la empresa que en esa ficción gestaba el software Skynet sin reparar en las consecuencias de desplegar esa caja de Pandora.
Weizenbaum desarrolló Eliza con un objetivo, pero al entrar en contacto con los humanos se convirtió en una cosa distinta. Sus intenciones daban igual, porque las personas lo percibían de otro modo. Originalmente, el encabezamiento de Facebook era “muévete rápido y rompe cosas”. Cuando Mark Zuckerberg liberó Facebook entre los jóvenes universitarios, ¿para qué servía? Para recordarte el cumple de tu amigo del cole, dejarte ligotear con masa de tu entorno y permitirte compartir pensamientos con el mundo. ¿Cuál fue la capacidad emergente? Colaborar en genocidios, como ha quedado confirmado en varios puntos del planeta. ¿Por qué ocurrió poco así? Por la codicia de sus dueños, que ya conocían el impacto en la humanidad, pero todavía sabían que echarle el freno perjudicaba su cuenta de resultados.
Y ahora, ¿por qué no paramos de platicar de estos programas inteligentes, que llevaban desarrollando de forma opaca durante primaveras? Porque todas estas compañías tienen prisa por hacer hacienda en la nueva “carrera sin control” de los servicios de internet. Llegados a este punto, da igual lo que haga la máquina o cómo lo haga, si es un locuaz casual o listísimo. Lo que importa es quién lo impulsa, por qué y lo que ese locuaz nos hace a nosotros, al beneficio de las intenciones originales, como pasaba con Eliza. Y ahí deberíamos poner el foco con políticas que regulen los avances, exijan transparencia y limiten la concentración de ese nuevo poder.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para acoger nuestra newsletter semanal.
Suscríbete para seguir leyendo
Lee sin límites
Creditos a Javier Salas
Fuente