La IA los orientó mal

Abogados culpan a ChatGPT por engañarlos para que citen investigación legal falsa

Los abogados Steven A. Schwartz y Peter LoDuca presentaron unas citas falsas, tras ocupar ChatGPT para un caso sobre una aerolínea

Uno de los abogados aseguró “No sabía que ChatGPT podía inventar casos”.
Uno de los abogados aseguró “No sabía que ChatGPT podía inventar casos”. Foto: Reuters

Dos abogados que se disculparon respondiendo a un juez enojado en la corte federal de Manhattan culparon el jueves a ChatGPT por engañarlos para que incluyeran una investigación legal ficticia en una presentación judicial.

Los abogados Steven A. Schwartz y Peter LoDuca enfrentan un posible castigo por presentar una demanda contra una aerolínea que incluía referencias a casos judiciales anteriores que Schwartz pensó que eran reales, pero que en realidad fueron inventados por el chatbot impulsado por inteligencia artificial.

Schwartz explicó que usó el innovador programa mientras buscaba precedentes legales que respaldaran el caso de un cliente contra la aerolínea colombiana Avianca por una lesión sufrida en un vuelo de 2019.

TE RECOMENDAMOS:
Un teléfono inteligente con el logotipo de ChatGPT en la placa base de una computadora en esta ilustración tomada el 23 de febrero de 2023.

El chatbot, que ha fascinado al mundo con su producción de respuestas similares a ensayos a las indicaciones de los usuarios, sugirió varios casos relacionados con accidentes de aviación que Schwartz no había podido encontrar a través de los métodos habituales utilizados en su bufete de abogados.

El problema era que varios de esos casos no eran reales o involucraban aerolíneas que no existían.

Schwartz le preciso al juez de distrito de los EE. UU. P. Kevin Castel que estaba "operando bajo una idea errónea... de que este sitio web estaba obteniendo estos casos de alguna fuente a la que yo no tenía acceso".

Mencionó que "fracasó miserablemente" al hacer una investigación de seguimiento para asegurarse de que las citas fueran correctas.

“No sabía que ChatGPT podía inventar casos”, dijo Schwartz.

Microsoft ha invertido unos mil millones de dólares en OpenAI , la empresa detrás de ChatGPT.

Su éxito, que demuestra cómo la inteligencia artificial podría cambiar la forma en que los humanos trabajan y aprenden, ha generado temores en algunos. Cientos de líderes de la industria firmaron una carta en mayo que advierte que “ mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como pandemias y guerras nucleares”.

El juez Castel parecía desconcertado y perturbado por el hecho inusual y decepcionado porque los abogados no actuaron rápidamente para corregir las citaciones legales falsas cuando los abogados de Avianca y el tribunal les alertaron por primera vez sobre el problema. Avianca señaló la jurisprudencia falsa en una presentación de marzo.

El juez confrontó a Schwartz con un caso legal inventado por el programa de computadora. Inicialmente se describió como un caso de muerte por negligencia presentado por una mujer contra una aerolínea, solo para transformarse en un reclamo legal sobre un hombre que perdió un vuelo a Nueva York y se vio obligado a incurrir en gastos adicionales.

Síguenos también en Google News

FBPT

Temas: