OpenAI, la compañía detrás de DALL-E y ChatGPT, lanzó una herramienta gratuita que, según dice, está destinada a "distinguir entre texto escrito por un humano y texto escrito por IA". Advierte que el clasificador "no es totalmente confiable" en un comunicado de prensa y "no debe usarse como una herramienta principal para la toma de decisiones". Según OpenAI, puede ser útil para tratar de determinar si alguien está tratando de hacer pasar el texto generado como algo escrito por una persona.
La herramienta, conocida como clasificador, es relativamente simple, aunque deberá tener una cuenta gratuita de OpenAI para usarla. Simplemente pegue el texto en un cuadro, haga clic en un botón y le dirá si cree que el texto es muy poco probable, poco probable, poco claro si es, posiblemente o probablemente generado por IA.
En las pruebas, identificó el 26 por ciento del texto escrito por IA como "probablemente escrito por IA"
En su comunicado de prensa, OpenAI dice que entrenó el modelo que impulsa la herramienta utilizando "pares de texto escrito por humanos y texto escrito por IA sobre el mismo tema".
Sin embargo, ofrece bastantes advertencias sobre el uso de la herramienta. Encima del cuadro de texto, la empresa señala algunas limitaciones:
La compañía también dice que a veces etiquetará "incorrectamente pero con confianza" el texto escrito por humanos como proveniente de una IA, especialmente si es muy diferente de cualquier cosa en los datos de entrenamiento. Deja en claro que el clasificador sigue siendo en gran medida un "trabajo en progreso".
Esas advertencias parecen estar justificadas: ejecuté algunos fragmentos de mi propio trabajo a través de la herramienta, y los marcó a todos como "muy poco probables generados por IA". ( Los engañó de nuevo ). Sin embargo, también dijo que no estaba claro si este artículo de Buzzfeed News fue escrito por una IA, a pesar del aviso en la parte inferior que dice: "Este artículo fue escrito en su totalidad por ChatGPT".

Comentarios