Varios usuarios de ChatGPT, el chatbot de inteligencia artificial de OpenAI, comenzaron a reportar que el modelo se volvió más "perezoso" a la hora de formular sus respuestas, que pasaron a ser más generales y poco precisas.

Tanto en la red social X como en Reddit aparecieron capturas de usuarios molestos por el actual funcionamiento del chatbot, sobre todo cuando se trata de tareas complejas. Y a partir de estos comentarios, los desarrolladores del sistema manifestaron que están trabajando para solucionarlo.

"Hemos escuchado todos sus comentarios acerca de que GPT-4 se está volviendo más perezoso. No hemos actualizado el modelo desde el 11 de noviembre y ciertamente esto no es intencional. El comportamiento del modelo puede ser impredecible y estamos buscando solucionarlo", aseguraron en el perfil oficial.

Además, agregaron: "Diferentes ejercicios de entrenamiento, incluso utilizando la misma información, pueden producir modelos notablemente diferentes", lo que deriva en resultados con distinta "personalidad, estilo de escritura, comportamiento de rechazo, evaluación del rendimiento e incluso sesgos políticos marcados, algo que no se desea en absoluto al momento de crear una inteligencia artificial de uso masivo".

Dos de los comentarios que reportaron que ChatGPT se volvió "perezoso" para sus respuestas.

La manera de interactuar con ChatGPT es a través de los llamados prompt, las instrucciones que el usuario le da al modelo mediante texto o voz. A través de estas indicaciones, el sistema ofrece respuestas y soluciones posibles.

Lo que llamó la atención de los usuarios es que, últimamente, las respuestas ya no son tan precisas, sino más bien formulaciones generales. Al pedirle, por ejemplo, que liste las semanas entre dos períodos de tiempo, lo que hace es ofrecer una estimación.

De momento, para sortear esta situación lo que se puede hacer es dar indicaciones con un alto grado de especificidad a ChatGPT para que sus repsuestas se ajusten lo más que se pueda con la necesidad del usuario.