Skip to content Skip to footer

Por qué los impulsores de la inteligencia químico firman tantos manifiestos apocalípticos | Tecnología


Por si el mundo no tenía ya una variedad de opciones futuras de calamidad total, ahora tenemos otra nueva: la inteligencia químico. En solo dos meses, miles de expertos han pedido que se pause, se observe y se regule. Primero fueron más de 30.000 personas encabezadas por Elon Musk, cofundador de Tesla, y Steve Wozniak, cofundador de Apple, quienes pidieron que se detenga seis meses la investigación en inteligencia químico (IA). Luego, uno de los padres de estos desarrollos, Geoffrey Hinton, dejó Google para advertir sobre sus posibles tinieblas; poco luego, Sam Altman, líder de la empresa que ha creado el producto más exitoso de la historia, ChatGPT, fue al Congreso a afirmar que “todo puede salir muy mal” y ahora está de excursión por el mundo para, entre otras cosas, advertir de peligros épicos.

Por si este cúmulo fuera poco, este martes se publicó otro manifiesto de solo 22 palabras en su flamante inglés: “Mitigar el aventura de agonía de la IA debería ser una prioridad mundial adjunto con otros riesgos a escalera social, como las pandemias y la aniquilamiento nuclear”, decía. Los dos primeros firmantes son precisamente Hinton y Yoshua Bengio, dos galardonados en 2018 con el premio Turing, el “Nobel” de la informática, por ser “padres” de la revolución de la IA. Los otros tres ilustres firmantes son los tres líderes de las principales empresas de IA hoy: Altman de OpenAI, Demis Hassabis de DeepMind (propiedad de Google), y Daniel Amodei, de Anthropic.

1. ¿Qué hay que regular?

¿Por qué toda esta altisonancia repentina en contra de poco misterioso y desconocido aún? Hay varias respuestas, unas más sinceras, otras más cínicas. Primero, es destacable que haya uno de los tres padres de la IA que firmara. Cercano a Hinton y Bengio, todavía obtuvo en 2018 el premio Turing el francés Yann LeCun, que lleva varios días explicando en Twitter por qué no está en el mandato del temor existencial: su hipótesis es que es difícil regular poco que no sabemos cómo será, dice.

“La IA superhumana no está ni cerca de la parte entrada en la registro de riesgos existenciales. En gran medida porque aún no existe. Hasta que tengamos un diseño central para la IA nivel perro (por no murmurar de nivel humano), discutir cómo hacerla segura es prematuro”, escribió en Twitter. En una charla nuevo, LeCun usó esta metáfora: “¿Cómo puedes diseñar cinturones para un coche si el coche no existe aún?”

Esa ignorancia sobre el futuro no es poco que solo piense LeCun. El propio Altman cree que para que haya un brinco auténtico en la capacidad de la IA deben ocurrir cosas de las que no se tiene ni idea: “Un sistema que no puede aportar a la suma del conocimiento irrefutable, descubrir nueva ciencia fundamental, no es una superinteligencia. Y para hacerlo admisiblemente, tendremos que expandir el maniquí GPT de maneras asaz importantes para las que todavía nos faltan ideas. No sé cuáles son esas ideas. Estamos tratando de encontrarlas”, dijo en una entrevista nuevo.

Esta altisonancia existencial otorga a la IA una capacidad aún que no sabemos si tiene.

2. Por qué más manifiestos

Si hubo un manifiesto en marzo, ¿por qué necesitamos otro? La diferencia del manifiesto breve de esta semana es claramente que este extremo lo firman los líderes de la industria. Altman (OpenAi), Hassabis (Google), Amodei (Anthropic) y Hinton (ex Google) no firmaron el primero, que pedía una moratoria en el incremento de estos programas: evidentemente, estas compañías no quieren pausar la investigación. El resto de firmantes lo forman una pequeña parte de los que ya apoyaron el manifiesto flamante de marzo, que ya son más de 31.000 personas, principalmente académicos. Sus promotores, del Future of Life Institute, mandaron un email el 19 de mayo a sus firmantes para que de nuevo se “unieran a Hinton, Bengio y Amodei” porque es “esencial enderezar y legalizar el debate sobre los riesgos más severos de la IA”.

3. ¿Una cortina de humo?

Unos días antiguamente del manifiesto breve, Altman publicó adjunto a otros dos dirigentes de OpenAI un artículo titulado Gobernanza de la superinteligencia. Allí pedían despreocuparse de los modelos actuales para centrarse en establecer sobre el peligro futuro: “Los sistemas de hoy crearán un enorme valía en el mundo y, si admisiblemente tienen riesgos, el nivel de esos riesgos es conforme con otras tecnologías de internet. Al contrario, los sistemas que nos preocupan tendrán un poder más allá de cualquier tecnología creada hasta ahora”.

En Londres, durante su excursión europea, Altman dijo que se plantearían retirar ChatGPT del continente si la Unión Europea avanza en su “sobrerregulación”, que debatirán en un pleno del Parlamento el 13 de junio. Una opción legislativa es la de vincular a las empresas con modelos como ChatGPT a revelar los datos con copyright en el corpus con el que entrenan sus máquinas, un ambiente conflictivo. Días luego, el líder de OpenAi tuiteó que ya no se planteaban confiarse Europa. Ahora, incluso parece que buscan sede europea, según se ha publicado.

Así, una posible explicación tras los manifiestos es que empresas como OpenAI prefieren que los políticos debatan sobre apocalípticos riesgos existenciales futuros, en zona de centrarse en leyes que puedan complicar su expansión hoy.

Con estas amenazas, Altman se asegura todavía ser consultado cuando llegue el momento de proponer leyes. Si los legisladores ven estos modelos como poco incomprensible, requerirán de la ayuda de los “expertos” internamente de las empresas para regular, dice Jake Browning, investigador de la Universidad de Nueva York sobre la filosofía de la IA y que no ha firmado el manifiesto. Precisamente, la comisaria europea de Competencia, Margrethe Vestager, hizo pública esta semana sus reuniones con Altman y Amodei encajado luego de anunciar su inminente propuesta de “código de conducta voluntario”. Un día luego, se reunió con la presidenta de la Comisión, Ursula von der Leyen.

Porque la Unión Europea está más enfocada al aquí y ahora: “La UE es una amenaza [para estas empresas] porque ignora la exageración de la IA y solo observa las consecuencias, tratando estos nuevos modelos como servicios”, dice Browning. Y se pregunta: “¿Es fiable la información proporcionada por GPT? ¿Cumplen las normas de privacidad existentes, como el derecho al olvido? ¿Respetan los derechos de autor? ¿La búsqueda de IA de Google conducirá a monopolios? ¿Las empresas comercializan estos productos con honestidad? En todas esas métricas, estos modelos de jerga salen mal: son propensos a desbarrar; entrenan y reproducen datos privados; no respetan las leyes de derechos de autor; están diseñados para afianzar el poder de las grandes tecnologías y aumentar sus ingresos publicitarios, y se comercializan de guisa engañosa sin la debida advertencia sobre sus limitaciones”.

4. El historia del fin del mundo

El fin del mundo es un debate que genera gran interés en Silicon Valley. El propio Altman ha dicho que debemos pensar más en la agonía de los humanos. Pero los críticos con estos manifiestos exagerados creen que entre las prioridades de sus célebres firmantes no está la de beneficiar a la humanidad. Timnit Gebru, experta en ética computacional de la Universidad de Stanford, alertó antiguamente de esta arranque de los sesgos y peligros de estos modelos. No solo no le hicieron caso, sino que Google la despidió.

Hoy Gebru sigue viendo solo hipocresía en este debate sobre la impredecible superinteligencia del futuro: “Esto es un movimiento que lleva décadas en construcción, con los mismos financiadores multimillonarios de OpenAI, Deepmind y ahora Anthropic. Su padre ideológico, Nick Bostrom [autor del best seller Superinteligencia], deje de ‘presiones disgénicas’, que es que aquellos considerados estúpidos se reproduzcan demasiado, que sería un aventura existencial para la humanidad, y dijo que ‘los negros son más estúpidos que los blancos’ y nos insultó. ¿Quieren que creamos que son ellos los que se preocupan por la humanidad? ¿Dónde estaban cuando nosotras creamos conciencia sobre los daños reales y nos enfrentamos a una reacción violenta? Es casi como un ataque informático coordinado para que nos distraigamos de responsabilizar a las verdaderas organizaciones que causan daño”.

Émile Torres, de la Universidad Leibniz de Hannover, lleva primaveras estudiando estas teorías de la aniquilación futura: “Se pone mucho el foco en la IA, pero no tanto en las empresas de IA. Esta atención da a las compañías una especie de vía desenvuelto. Redirige la inspección de lo que están haciendo a esta especie de mente misteriosa y extraterrestre que surgirá por algún tipo de ley del progreso tecnológico”. Y añade: “Esta visión utópica fue inventada por un puñado de tipos blancos ricos superprivilegiados y ahora tratan de imponerla al resto del mundo”. Para ellos, todavía llamados transhumanistas, sería necesario un cerebro más privilegiado que el humano para sobrevivir, es afirmar, el digital.

5. ¿Y si es verdad?

Cercano a estas posibles razones, no hay que obviar el motivo más claro para apoyar estos manifiestos: creer de verdad que la inteligencia químico supone un peligro existencial. Que los firmantes, aunque un buen puñado tenga intereses económicos obvios, temen sinceramente un fin del mundo provocado por una IA mal gestionada.

Hay miles de investigadores de docenas de disciplinas, sin vínculos con la industria, que creen que hay que pausar la investigación y guardar sus riesgos existenciales. EL PAÍS ha preguntado sus motivos a diez académicos firmantes de ámbitos dispares, desde la física y la informática al derecho, la hacienda o la psicología. Sus respuestas pueden englobarse en cuatro puntos:

a) La prontitud del incremento. Para quien no estuviera internamente del sector de la IA, la velocidad de la innovación es inconcebible. Es quizá el temor central: “No hace tanto, el peligro de que las máquinas representaran un aventura de agonía parecía soñador”, señala Andrew Briggs, catedrático emérito de Nanomateriales de la Universidad de Oxford. “El ritmo del progreso en la IA ahora acelera tan rápido, como lo muestran motores como ChatGPT, que se ha vuelto urgente despabilarse medidas de seguridad antiguamente de que sea tarde”, añade.

La velocidad puede traer problemas imprevistos, como dice Juan Pavón, catedrático de Ingeniería del Software e IA de la Universidad Complutense: “Se está avanzando más rápido en el incremento de grandes modelos de IA que en su comprensión, y como se manejo de sistemas complejos, con multitud de interacciones entre los medios que los componen, pueden producirse posesiones no deseados e imprevistos”, dice.

b) Ignorancia sobre cómo funcionan. El desconocimiento es otro coeficiente que preocupa a los firmantes. “Los programas de IA como GPT4 y sus probables sucesores son sistemas extremadamente complejos, y en realidad no los entendemos”, asegura Alessandro Saffiotti, catedrático de Ciencias de la Computación de la Universidad de Örebro (Suecia). “Aun así, podríamos terminar delegándoles decisiones críticas para el planeta y nuestra sociedad: centrales eléctricas, transacciones financieras o incluso sistemas militares. Si las empresas no hacen una pausa en el despliegue de esos sistemas hasta que los entendamos mejor, debemos ir preparándonos para posibles escenarios desastrosos”.

“Se manejo de ‘lo que no sabemos que no sabemos’, es afirmar, el potencial de problemas severos que pueden surgir de una guisa imprevista”, advierte Henning Grosse Ruse-Khan, profesor de Derecho de la Universidad de Cambridge. Y apunta: “El potencial de la IA es tan significativo que no tenemos una guisa realista de predecir, ni siquiera adivinar, sus consecuencias”.

c) La duda obliga a la prudencia. La frase de 22 palabras del extremo manifiesto es obediente de aceptar por simple investigación de riesgos. El texto viene a afirmar: si tienes una pistola cargada con 3 balas en un cargador de 100, ¿dispararías? Aunque no sepamos si esa pistola existe, la respuesta natural es intentar sacar esas 3 balas del cargador. “Es importante hablarlo adecuado a la gran incertidumbre que hay”, dice Edoardo Galliforme, profesor de Econonomía de la Universidad de Cambridge. “Tenemos muy poca idea de las probabilidades. Estoy asaz seguro de que el aventura de agonía de la IA en los próximos 100 primaveras es muy pequeño, pero todavía estoy asaz seguro de que no es cero”, añade.

Al final, el debate se reduce a una reto. Browning, que no firmó, está cómodo negando todos los riesgos. “Si crees que el jerga es el núcleo de la inteligencia, puedes inclinarte a pensar que una máquina parlante así está a un paso de distancia de la inteligencia superhumana”, explica. Pero él no cree que sea así: “Filosóficamente, no creo que la superinteligencia tenga sentido como concepto; técnicamente, no creo que falta que suceda bajo la protocolo de ‘IA’, sin importar cómo de amplia sea, represente una amenaza existencial”.

En esa duda, Bojan Arbutina, profesor de Astrofísica de la Universidad de Belgrado, prefiere equivocarse por exceso: “Puede que la amenaza sea exagerada, pero si no lo es, no tendremos tiempo de reconsiderarlo, y por consiguiente creo que debe tomarse en serio. No podemos comprender todos los riesgos. La superinteligencia podría, por ejemplo, percibirnos a los humanos como nosotros vemos a los insectos o incluso a las bacterias”, afirma.

d) Hay muchos otros problemas. Pero no hay que ir tan remotamente, dice Helena Contrabando, catedrática de Psicología de Deusto, que pide que “no se mezcle el aventura existencial con la discusión sobre la consciencia y la inteligencia, no tiene falta que ver”. Para Contrabando, el número de desafíos de la humanidad no debe ser una excusa para no fijarnos en la IA: “Restringir la discusión solo a los riesgos que algunos consideran ya obvios es ir por detrás del problema. Hay que datar pronto a acuerdos mundiales que minimicen los riesgos de la IA, todos los riesgos. No entiendo por qué algunos creen tener una especie de venia para afirmar: ‘Esto se puede regular, pero esto no”.

Igualmente incluyen la regulación inmediata y contemporáneo, que otras partes con intereses económicos pueden despreciar: “Mi objetivo, al destacar las amenazas existenciales de la IA, es exactamente lo contrario de tratar de descartar los daños a corto plazo”, dice Michael Osborne, profesor de IA en la Universidad de Oxford. Y asegura: “En cambio, deseo destacar que no estamos haciendo lo suficiente para administrar la IA, una tecnología que hoy en día está estrictamente controlada por un pequeño número de empresas tecnológicas opacas y poderosas”.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para acoger nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites



Creditos a jordi perez

Fuente

Leave a comment

0.0/5