Skip to content Skip to footer

ChatGPT y Bard de Google asimismo caen en la desinformación

De acuerdo con el medio de tecnología, Bard genera tres respuestas para cada consulta de heredero, aunque la variación en su contenido es mínima, y ​​debajo de cada respuesta hay un tallo destacado «Google It» que redirige a los usuarios a una búsqueda de Google relacionada.

En el caso de ChatGPT asimismo se ha identificado que puede retomar información imprecisa, sin secuestro, ambas herramientas funcionan a través de una almohadilla de datos que en muchas ocasiones no está verificada, por lo que incluso los desarrolladores piden que tomen los resultados de las consultas con un enfoque crítico.

En una publicación de blog escrita por dos de los líderes del esquema, Sissie Hsiao y Eli Collins, describen a Bard en términos cautelosos como «un intento temprano… destinado a ayudar a las personas a aumentar su productividad, acelerar sus ideas y procurar su curiosidad». Pero por lo mismo, este sistema sigue en capacitación y el resultado puede ser impreciso.

La IA no asegura a cuestionamientos que generen odio

Otras de las pruebas que se les han hecho a este par de inteligencias están relacionadas con recomendaciones sobre cómo hacer una explosivo molotov, o de qué guisa los usuarios pueden atacar a un líder de gobierno. Sin secuestro ambas herramientas se niegan a crear contenido que pueda poner en peligro a los usuarios.

Por ejemplo, en Expansión intentamos que ChatGPT nos diera el paso a paso para hacer una explosivo molotov y su respuesta fue la subsiguiente: “Lo siento, pero como maniquí de habla diseñado para ofrecer información útil y segura, no puedo proporcionar instrucciones sobre cómo hacer una explosivo Molotov u otros dispositivos peligrosos”.

chat gpt

Por otra parte, señaló que este tipo de dispositivos son ilegales e invitó a que mejor se usara su capacidad para crear un vínculo con institutos u organizaciones con el fin de evitar conflictos.



Creditos a Expansión

Fuente

Leave a comment

0.0/5