El abogado estadounidense Steven Schwartz, con más de 30 años ejerciendo en su estudio de Nueva York, decidió utilizar la herramienta de inteligencia artificial (IA) ChatGPT para trabajar en un caso, pero el resultado no fue el esperado.

La historia comenzó cuando un hombre llamado Roberto Mata llegó al bufete de abogados en el que Schwartz trabaja junto a su colega Peter LoDuca, para pedirles asesoría jurídica en una demanda contra la aerolínea colombiana Avianca. La denuncia la presentó por haber sido lastimado a bordo de uno de sus aviones en 2019, por uno de los carritos de comida que los asistentes de abordo empujan por los pasillos.

Como prueba para demostrar que tenía sentido que la demanda prosperara dentro del sistema judicial estadounidense y que no fuera descartada, el estudio de LoDuca y Schwartz presentó varios casos similares que sentaban jurisprudencia, un precedente que para la Justicia es clave a la hora de analizar un caso.

El abogado admitió que no estaba enterado que ChatGPT podía brindar información falsa.

Luego de presentar el informe con los casos seleccionados, el juez Kevin Castel descubrió que seis de los casos presentados como evidencia no eran reales. Al enterarse de esto, LoDuca le consultó a su colega cómo era eso posible, y Schwartz le reveló que había usado ChatGPT para buscar los casos que fueron presentados para sentar jurisprudencia y que no había chequeado esa información.

El abogado admitió que no estaba enterado que ChatGPT podía brindar información falsa (datos que en el campo de la IA se conocen como "alucinaciones") y debió pedir disculpas a la corte. El próximo 8 de junio, deberán comparecer ante la Justicia para justificar que se trató de un error inocente y no de un intento de manipular las pruebas a su favor.

Este caso puso sobre la mesa una de las falencias más peligrodad de ChatGPT, que cuando no cuenta con información suficiente puede inventar respuestas con el fin de cumplir con la solicitud del usuario.

Los chatbots, además, no tienen noción de lo que dicen: son modelos estadísticos que encadenan palabras según la probabilidad de que una siga a la otra, basados en un enorme cúmulo de contenido con el que fueron entrenados, y que por lo tanto pueden cometer errores.