Skip to content Skip to footer

Microsoft bloqueó el ataque a ChatGPT temporalmente por cuestiones de seguridad


No obstante, los temas de ciberseguridad son tan importantes para la empresa que no pueden dejar ocurrir ninguna brecha, pues detalló que se manejo de un servicio foráneo del cual no son responsables.

“Eso significa que debe tener cuidado al usarlo correcto a los riesgos de privacidad y seguridad. Esto todavía se aplica a cualquier otro servicio de IA, como Midjourney o Replika”, comentó Microsoft.

Desde la alba del jueves, los servicios de ChatGPT y otras plataformas de IA se vieron interrumpidas por un ataque de denegación de servicio distribuido (DDoS), el cual fue confirmado por la compañía.

Sam Altman, CEO de OpenAI, inicialmente atribuyó las interrupciones a un aumento en el interés de los usuarios por las nuevas características de la plataforma. Pero poco luego la página de incidentes de la empresa se actualizó para indicar que las interrupciones eran el resultado de un patrón de tráfico anormal.

Un conjunto de hackers conocido como Anonymous Sudan reclamó la responsabilidad del ataque bajo el argumento de que fue una respuesta a un supuesto sesgo de ChatGPT con destino a Israel y en contra de Palestina. Sin bloqueo, OpenAI no proporcionó más detalles sobre el incidente.

Si proporcionadamente el soledad a la plataforma podría estar relacionado al ciberataque, Microsoft detalló eu fue un error derivado de una prueba de sistemas para grandes modelos de lengua y fue por ello que se detuvo el ataque para todos los empleados de la empresa.

“Hemos restaurado el servicio poco luego de identificar nuestro error. Como hemos dicho anteriormente, alentamos a los empleados y clientes a utilizar servicios como Bing Chat Enterprise y ChatGPT Enterprise que vienen con mayores niveles de protección de privacidad y seguridad”, aseguró.

La cuestión de la privacidad de datos siempre ha sido un medio ambiente cuestionable en las funciones de ChatGPT. En enero, cuando el auge de la IA generativa aún era incipiente, un ingeniero de detención rango de Microsoft escribió a los empleados que podía usar ChatGPT, pero los instó a no introducir información confidencial.

Y es que si proporcionadamente se manejo de una aplicación en la que la ciberseguridad sea un punto primordial, todavía se debe rememorar que es una plataforma que toma la información apto en la web para su entrenamiento y como tal existe el peligro de una filtración de esos datos.



Creditos a Expansión

Fuente

Leave a comment

0.0/5