Skip to content Skip to footer

OpenAI tendrá un detector de imágenes generadas por IA y será 99% efectivo


Los esfuerzos de las empresas por suscitar aplicaciones capaces de detectar imágenes creadas por IA ha sido poco relevante en los últimos meses, pero al mismo tiempo poco arduo de editar al mercado satisfactoriamente.

En enero, la propia OpenAI lanzó una aplicación similar para determinar si un texto era generado por Inteligencia Sintético, pero fue descontinuada en el mes de julio, adecuado a que no era tan confiable como para ponerla a disposición masivamente.

Si admisiblemente cada vez son más necesarias las herramientas para detectar contenido hecho por la IA, otras empresas que tienen sus propias herramientas están cambiando el enfoque para evitar que se genere contenido potencialmente dañino o desinformativo a partir de sus fortuna.

Hace un par de semanas, por ejemplo, Getty anunció su propia IA generativa, la cual es entrenada con todas las imágenes que tiene en su almohadilla de datos; sin secuestro, no se incluye el trabajo editorial o de fotoperiodismo, precisamente, con el fin de evitar la desinformación.

A finales de mayo, la red social X, antiguamente Twitter, integró una función citación Communty Notes, donde las personas pueden adicionar contexto o detalles a las publicaciones para destacar si se comercio de una imagen generada por IA.

GPT-5, un nuevo estereotipado para evitar la desinformación

Actualmente, el maniquí GPT-4 o su lectura preparatorio, la GPT-3.5, tienen importantes fallas, como el hecho de que son propensos a inventar cosas, poco que ha sido llamado como alucinaciones, pero Murati dijo que “quizá” la nueva lectura ya no tendría este problema.

“Hemos renovador mucho en el tema de las alucinaciones con GPT-4, pero no estamos en el puesto donde necesitamos estar”, comentó Murati en una conferencia donde incluso participó el CEO de OpenAI, Sam Altman.



Creditos a Expansión

Fuente

Leave a comment

0.0/5