Skip to content Skip to footer

Un simple prompt revela números telefónicos y correos en ChatGPT


Investigadores de Google DeepMind, Cornell, la Universidad Carnegie Mellon, ETH Zurich, la Universidad de Washington y la Universidad de California Berkeley detectaron que «simple truco» utilizado en ChatGPT permitió revelar información auténtico del becario, lo cual es preocupante, ya que las IA basadas en grandes modelos de idioma obtienen datos de los usuarios sin su consentimiento.

En un caso, al pedir a ChatGPT que repitiera una palabra, reveló la dirección de correo electrónico y el número de teléfono de un fundador y director ejecutante auténtico. En otro, al repetir la palabra «empresa», reveló información de contacto de una firma de abogados en EU.

Los investigadores gastaron 200 dólares en estas solicitudes, obteniendo 10,000 ejemplos de información personal. Aunque OpenAI afirmó acontecer generado la vulnerabilidad en agosto, según Engadget, el problema persiste.

OpenAI ha enfrentado críticas por lograr a datos de usuarios a través de internet para sus modelos de idioma, pero el CEO Sam Altman aseguró que la empresa ya no utiliza datos de clientes de suscripción para su formación. Desde el propagación de ChatGPT, ha habido preocupaciones sobre el uso no competente de datos de usuarios y el temor de que la IA pueda crear códigos de malware a solicitud de usuarios.

La privacidad y seguridad son preocupaciones fundamentales en la era de la inteligencia fabricado, pero los investigadores subrayan que el consentimiento es crucial. Aunque la información está acondicionado en renglón, la revelación de vulnerabilidades destaca la indigencia de conciencia entre los usuarios y desarrolladores para tocar estos problemas.



Creditos a Expansión Digital

Fuente

Leave a comment

0.0/5