Universidades de Australia detectaron que algunos alumnos utilizan chatbots para realizar trabajos prácticos, ensayos e incluso exámenes, según informó el diario británico The Guardian. Estos (ro)bots conversacionales son aplicaciones de sotfware que emplean inteligencia artificial (IA) para producir respuestas automáticas coherentes.

La utilización más común de esta tecnología se observa en servicios de atención al cliente a través de apps de mensajería y chats en plataformas sociales. Sin embargo, algunos universitarios australianos los están utilizando para evitar el trabajo intelectual que requieren los trabajos prácticos y exámenes.

Esto que resultó en un avance para el campo de la tecnología a nivel global obliga a revisar los métodos de evaluación en el sector educativo de Australia—y más temprano que tarde: en todo el mundo—. El diario británico detalló que las ocho principales universidades del país índico han modificado sus métodos de evaluación para evitar la práctica anti ética de sus estudiantes.

El Dr. Matthew Brown, principal representante de estas universidades, explicó a The Guardian que las casas de estudio ya están repensando “cómo se llevarán a cabo las evaluaciones en 2023”. Lo más probable, apuntó el diario, sería volver al sistema tradicional de exámenes en papel y birome.

El software que por ahora más preocupa a la comunidad educativa anglosajona es ChatGPT. Un desarrolló de la empresa OpenAI (Elon Musk es uno de sus fundadores) que se lanzó en noviembre de 2022. Esta aplicación es capaz de procesar consultas breves del usuario y responder con textos largos y medianamente complejos.

En Nueva York (Estados Unidos) el departamento de educación de la ciudad, decidió prohibirlo en los dispositivos que se usan en colegios e institutos públicos para evitar posibles fraudes por parte de sus estudiantes, según informó The Wall Street Journal.

El éxito de estos chatbots está en la velocidad con la que producen las respuestas automáticas y la exactitud de las mismas. En este sentido Xataka, sitio especializado en tecnología, recogió lo que apuntó el docente Paul Taylor, profesor de salud informática en la University College de Londres, en un artículo para London Review of Books, donde describió las respuestas de un chatbot a determinadas preguntas que había incluido en distintos exámenes. Taylor afirmó que la inteligencia artificial era capaz de responder de forma “coherente, completa y ciñéndose al tema, algo que los estudiantes a veces no consiguen”.

En ese artículo de Xataka, el profesor inglés descartó como solución los verificadores de plagio, ya que el algoritmo de ChatGPT “responde de forma diferente a cada interacción, por lo que los estudiantes no obtendrán la misma respuesta que yo recibí”.