Skip to content Skip to footer

Emily Bender: “Los chatbots no deberían dialogar en primera persona. Es un problema que parezcan humanos” | Tecnología

Emily M. Bender, profesora de lingüística computacional en la Universidad de Washington.
Emily M. Bender, profesora de filología computacional en la Universidad de Washington.Corinne Thrash

La profesora Emily M. Bender tiene una delegación: quiere que sepamos que la llamativo maravilla de ChatGPT es más perfectamente un locuaz. No un locuaz cualquiera, sino un “locuaz imprevisto”. “Probabilístico” significa que escoge las combinaciones de palabras según un cálculo de probabilidades, pero no entiende ausencia de lo que dice. Es difícil conversar con ChatGPT o con Bing y ser consciente de que es un locuaz y solo un locuaz. Pero para Bender de esa conciencia dependen muchas cosas malas: “Estamos en un momento frágil”, dice. Y advierte: “Estamos interactuando con una tecnología nueva y el mundo impávido necesita equilibrar rápido su alfabetización para aprender cómo tratar perfectamente con ella”. Su mensaje, en extracto, es: por privanza, es una máquina que hace muy perfectamente una cosa, pero ausencia más.

Bender, gramático computacional de la Universidad de Washington, intuía que esto podía suceder desde 2021, cuando publicó un artículo culto ahora célebre sobre “los peligros de los loros estocásticos”: “No dijimos que esto iba a acaecer. Dijimos que esto podría acaecer y que deberíamos tratar de evitarlo. No era una predicción. Era una advertencia. Allí solo hablamos un poco de lo peligroso que es hacer poco que parezca humano. Es mejor no imitar el comportamiento humano porque eso puede resistir a problemas”, dice Bender, de 49 primaveras, por videoconferencia a EL PAÍS. “Cuanta más familia sea consciente, más practicable será ver los grandes modelos de verbo como simples máquinas de síntesis de texto y no como poco que genera pensamientos, ideas o sentimientos. Creo que [sus creadores] quieren creer que es otra cosa”, añade.

Esa falsa humanidad tiene varios problemas: “Nos provocará confianza. Y no asume responsabilidad. Tiene tendencia a inventarse cosas. Si muestra un texto que es cierto, es por casualidad”, asegura. “Nuestras sociedades son un sistema de relación y confianza. Si comenzamos a perder esa confianza en poco que no tiene responsabilidad, hay riesgos. Como individuos que interactuamos con esto, debemos tener cuidado con lo que hacemos con nuestra confianza. Las personas que la construyen deben dejar de hacerla parecer humana. No debería estar hablando en primera persona”, añade.

Menos Terminator en potencia

La encaje por hacerlos más humanos probablemente no sea gratuita. Sin ella, el tamboril provocado por ChatGPT hubiera sido más sereno: no hubiera hexaedro esa sensación de Terminator en potencia, de amigo cuidadoso, de sabio soñador. “Quieren crear poco que parezca más mágico de lo que es. Nos parece mágico que una máquina pueda ser tan humana, pero en efectividad es la máquina creando la ilusión de ser humana”, dice Bender. “Si algún está en el negocio de entregar tecnología, cuanto más mágica parezca, más practicable será venderla”, añade.

La investigadora Timnit Gebru, coautora con Bender del artículo de los loros y que fue despedida de Google por ese motivo, se lamentaba en Twitter porque el presidente de Microsoft admitía en un documental sobre ChatGPT que “no es una persona, es una pantalla”.

Si algún está en el negocio de entregar tecnología, cuanto más mágica parezca, más practicable será venderla”

El tamboril sin incautación no se debe solo a una empresa que ha hecho dialogar un chatbot como si fuera humano. Hay aplicaciones de IA que crean imágenes y pronto vídeos y música. Es difícil no dar tamboril a estas novedades, aunque todas se basen en el mismo tipo de agradecimiento de patrones. Bender pide poco díficil para los medios y el modo en que están estructuradas las redes sociales hoy: contexto. “Se pueden hacer cosas nuevas y aún así no exagerar. Puedes preguntar: ¿es esto arte de IA o es solo síntesis de imágenes? ¿Estás sintetizando imágenes o estás imaginando que el software es un actor? Se puede dialogar sobre la tecnología de guisa que mantenga a las personas en el centro. Para contrarrestar el tamboril es cuestión de dialogar sobre lo que positivamente se está haciendo y quién está involucrado en su construcción”, asegura.

Hay que tener en cuenta incluso que estos modelos se basan en una cantidad inimaginable de datos que no sería posible sin resistir décadas alimentando internet con miles de millones de textos e imágenes. Eso conlleva problemas obvios, según Bender: “Este enfoque de la tecnología del verbo se pedestal en tener datos a escalera de Internet. En términos de equidad entre idiomas, por ejemplo, este enfoque no va a resquilar a todos los idiomas del mundo. Pero incluso es un enfoque fundamentalmente atrapado en el hecho de que tendrá que altercar con que esos datos a escalera de internet incluyen todo tipo de basura”.

Esa basura no solo incluye racismo, nazismo o sexismo. Incluso en páginas serias están sobrerrepresentados los hombres blancos ricos o hay palabras connotadas por titulares muy vistos como “islam” o el modo en que a veces se palabra en Oeste de los países de donde procede la inmigración. Todo eso poso está en el corazón de estos modelos: reeducarlos es una tarea extraordinaria y probablemente inacabable.

Los humanos no somos eso

El locuaz no solo ha hecho célebre a Bender. Sam Altman, fundador de OpenAI, empresa creadora de ChatGPT, ha tuiteado un par de veces que somos loros estocásticos. Quizá los humanos incluso reproducimos lo que oímos tras un cálculo probabilístico. Esa guisa de disminuir las capacidades humanas permite inflar la presunta inteligencia de las máquinas, los siguientes pasos de OpenAI y otras empresas de un sector que vive casi en una burbuja. En el fondo permitirá percibir aún más peculio.

“El trabajo sobre la inteligencia sintético va unido a considerar la inteligencia humana como poco simple que se puede cuantificar y que la familia puede ser clasificada según su inteligencia”, dice Bender. Esta clasificación permite establecer hitos futuros para la IA: “Está la ‘inteligencia sintético caudillo’, que no tiene una gran definición, pero es poco así como que puede estudiar de guisa flexible. Y luego aún está la ‘superinteligencia sintético’, que la oí el otro día, y que debe de ser aún más inteligente. Pero es todo imaginario”. El brinco entre las IA que vemos hoy y una máquina que positivamente piense y sienta sigue siendo extraordinario.

El 24 de febrero Altman publicó un post titulado “Planeando para la AGI [Inteligencia Artificial General] y más allá”. Tráfico sobre “certificar que la inteligencia sintético caudillo (sistemas de IA que generalmente son más inteligentes que los humanos) beneficie a toda la humanidad”. Bender fue a Twitter a preguntarse, entre otras cosas, quién es esta familia para animarse qué es lo que beneficia a toda la humanidad.

Esta elevación de la categoría de ChatGPT permite a Altman presentar su post como poco casi existente, con potencial. “Sam Altman parece creer positivamente que puede construir una entidad inteligente autónoma. Para perseverar esa creencia, tiene que coger la tecnología existente y proponer sí, se parece lo suficiente a los tipos de agentes inteligentes autónomos que imagino. Creo que es dañino. No sé si creen lo que dicen o si son cínicos, pero suenan como si lo creyeran”, dice Bender.

Si se extiende esta creencia de que las IA hacen más de lo que parecen, que son más listas, más familia tenderá a aceptar que se cuelen en otros ámbitos de valentía: “Si creemos que existe una inteligencia sintético existente, incluso seremos más propensos a creer que claro que podemos hacer sistemas automáticos de valentía que estén menos sesgados que los humanos cuando en efectividad no podemos”, dice Bender.

“Como un basura de petróleo”

Una de las posibilidades más comentadas para estos modelos de texto es si reemplazarán a los buscadores. Microsoft, con Bing, ya lo está intentando. Los diversos cambios que han ido aplicando a su maniquí desde que salió es prueba de sus dificultades. Bender quiere compararlo con un “basura de petróleo”: “Esa es una metáfora que espero que persista. Uno de los daños con estas máquinas de síntesis de texto configuradas como si pudieran objetar a preguntas es que van a colocar no-información en nuestro ecosistema de información de guisa que será difícil de detectar. Eso se parece a un basura de petróleo: será difícil de lustrar. Cuando las empresas hablan de cómo están progresando constantemente y mejorando su precisión, es como cuando BP o Exxon dicen: ‘Miren cuántas aves salvamos del petróleo que derramamos sobre ellas”.

OpenAI quiere dialogar sobre el futuro. Pero yo preferiría dialogar de cómo regulamos lo que hemos construido ahora”

Mientras hablamos de ese futuro improbable, no prestamos atención al presente, dice Bender. “OpenAI quiere dialogar sobre cómo nos aseguramos de que la inteligencia sintético caudillo será beneficiosa para toda la humanidad y cómo la regularemos. Pero yo preferiría dialogar de cómo regulamos lo que hemos construido ahora y lo que debemos hacer para que no cause problemas hoy, en emplazamiento de esta distracción de lo que sucedería si tuviéramos estos agentes autónomos”, cree.

No ha perdido la esperanza en que vaya llegando algún tipo de regulación, en parte por el esfuerzo de computación que requieren estos modelos. “Se necesitan muchos bienes para crear una de estas cosas y ejecutarla, lo que da un poco más de beneficio a la regulación. Necesitamos una regulación en torno a la transparencia. OpenAI no está siendo abierta al respecto. Con suerte, eso ayudaría a las personas a comprender mejor”.

La ciencia ficción no es el único futuro

Bender tiene que oír a menudo que es una mujer enfadada que se queja de la tecnología, a pesar de dirigir un máster en filología computacional: “No me siento herida cuando la familia me lo dice porque sé que están equivocados. Aunque incluso muestran este punto de presencia de creer que hay un camino predeterminado con destino a el que nos llevan la ciencia y la tecnología y es el que hemos aprendido de la ciencia ficción. Es una forma contraproducente de entender qué es la ciencia. La ciencia es un camarilla de personas que se dispersan y exploran cosas distintas y luego conversan entre sí, no personas que corren por un camino justo, intentando alcanzar los primeros al final”.

Bender tiene un extremo mensaje para quienes creen que ese camino será accesible y sencillo: “Esto que diré puede ser sarcástico y simplista, pero tal vez solo esperan que lleguemos a un punto donde estos modelos se alimenten de tantísimos datos que en ese momento decida espontáneamente convertirse en consciente”. Por ahora, ese es el plan.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para cobrar nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites



Creditos a jordi perez

Fuente

Leave a comment

0.0/5