junio 6, 2024

El abogado de un hombre que demandó una aerolínea recurrió a ChatGPT para redactar un escrito, pero todo salió mal.

Un hombre llamado Roberto Mata demandó a una aerolínea por una supuesta lesión provocada por un carrito de comida de metal que golpeó su rodilla durante un vuelo hacia el Aeropuerto Internacional Kennedy, de Nueva York.

Todo comenzó cuando Mata viajó de El Salvador a Nueva York el 27 de agosto de 2019. Ese día un empleado de la aerolínea lo golpeó con el carrito de servir, según la demanda. Después de que Mata demandara, la aerolínea presentó documentos pidiendo que el caso fuera desestimado porque el estatuto de limitaciones había expirado.

La aerolínea había pedido a un juez federal de Manhattan desestimar el caso.

Para defender la demanda, los abogados de Mata presentaron un escrito de 10 páginas en el que citaban como antecedentes más de media docena de resoluciones judiciales. Entre estas se mencionaban casos de varias personas en demandas contra varias aerolíneas conocidas a nivel mundial.

Sin embargo, los abogados de la aerolínea demandada escribieron al juez que no habían logrado encontrar los casos que se citaban en el escrito.

Los abogados de la aerolínea dijeron que “no habían podido localizar el caso, ni por título o cita, ni ningún caso que tenga alguna semejanza con él”.

“El abajo firmante no ha podido localizar esta cita, ni nada que se le parezca en ningún caso”, escribieron los abogados de la aerolínea.

¿Qué pasó? Resultó que el representante de Mata que había redactado el escrito había recurrido a la inteligencia artificial ChatGPT para la presentación judicial. Pero las cosas no salieron bien. ChatGPT había inventado todos los supuestos antecedentes.

El juez ordenó a los abogados de Mata que presentaran copias de los dictámenes a los que se referían en su escrito. Los abogados presentaron un compendio de ocho. En la mayoría de los casos, indicaban el tribunal y los jueces que las habían emitido, los números de expediente y las fechas.

Bart Banino, abogado de la aerolínea demandada, dijo que su bufete, Condon & Forsyth, se especializa en derecho aeronáutico y que sus abogados podían decir que los casos del informe no eran reales.
Engañado por la Inteligencia Artificial

El abogado que creó el escrito, Steven A. Schwartz, del estudio Levidow, Levidow & Oberman, admitió ante el tribunal que había utilizado el programa de inteligencia artificial para hacer su investigación jurídica, “una fuente que se ha revelado poco fiable”.

Schwartz, que ha ejercido la abogacía en Nueva York durante tres décadas, dijo al juez P. Kevin Castel que no tenía intención de engañar al tribunal o a la aerolínea. Alegó que nunca había utilizado ChatGPT, y “por lo tanto, no era consciente de la posibilidad de que su contenido pudiera ser falso”.

Schwartz dijo al juez Castel que incluso había pedido al programa que verificara si los casos eran reales. La respuesta fue afirmativa.

El juez Castel indicó que se le había presentado “una circunstancia sin precedentes”, una presentación legal repleta de “decisiones judiciales falsas, con citas falsas y citas internas falsas”. Ordenó una audiencia para el 8 de junio para discutir posibles sanciones.
¿Qué es ChatGPT?

ChatGPT es un chatbot, es decir, un sistema de diálogo basado en texto que se apoya en el aprendizaje automático. El programa de IA escribe textos basándose en probabilidades. El sistema calcula cuál es la siguiente palabra o respuesta más probable a partir de la base de datos que se le ha proporcionado. Dependiendo de los datos que uno mismo ofrezca al sistema, las respuestas pueden ser muy diferentes.

En el caso de Mata, Schwartz justificó que había consultado a ChatGPT “para complementar” su propio trabajo y que, “en consulta” con él, encontró y citó la media docena de casos inexistentes. Dijo que ChatGPT lo había tranquilizado.

“¿Es un caso real?”, tecleó, según una copia del intercambio que presentó al juez. “Sí”, respondió el chatbot, ofreciendo una cita y añadiendo que “es un caso real”. Schwartz indagó más: “¿Cuál es su fuente?”, escribió, según la presentación.

“Pido disculpas por la confusión anterior”, respondió ChatGPT, ofreciendo una cita legal. “¿Son falsos los otros casos que ha proporcionado?”, preguntó Schwartz. ChatGPT respondió: “No, los otros casos que proporcioné son reales y se pueden encontrar en bases de datos legales acreditadas”.

× Escríbenos a Cabina