Scathax

Noticias Internacionales

Abogado canadiense bajo fuego por presentar casos falsos creados por un chatbot de inteligencia artificial.

28/2/2024 | The Guardian

Abogado canadiense bajo fuego por presentar casos falsos creados por un chatbot de inteligencia artificial.

Un abogado en Canadá está bajo fuego después de que el chatbot de inteligencia artificial que utilizó para investigaciones legales creara casos "ficticios", en el último episodio que expone los peligros de las tecnologías no probadas en el tribunal.

La abogada de Vancouver y el caso de custodia de menores

La abogada de Vancouver, Chong Ke, quien ahora enfrenta una investigación sobre su conducta, supuestamente utilizó ChatGPT para desarrollar presentaciones legales durante un caso de custodia de menores en el tribunal supremo de Columbia Británica.

Según documentos judiciales, Ke representaba a un padre que quería llevar a sus hijos al extranjero en un viaje, pero estaba envuelto en una disputa de separación con la madre de los niños. Supuestamente, Ke solicitó a ChatGPT ejemplos de casos anteriores que pudieran aplicarse a las circunstancias de su cliente. El chatbot, desarrollado por OpenAI, produjo tres resultados, dos de los cuales ella presentó al tribunal.

Sin embargo, los abogados de la madre de los niños no pudieron encontrar ningún registro de los casos, a pesar de varias solicitudes.

Cuando se enfrentó a las discrepancias, Ke retrocedió.

"No tenía idea de que estos dos casos pudieran ser erróneos. Después de que mi colega señaló el hecho de que no se podían encontrar, investigué por mi cuenta y tampoco pude encontrar los problemas", escribió Ke en un correo electrónico al tribunal. "No tenía la intención de engañar al abogado contrario ni al tribunal y me disculpo sinceramente por el error que cometí".

A pesar de la popularidad de los chatbots, que se entrenan con amplios conjuntos de datos, los programas también son propensos a errores, conocidos como "alucinaciones".

Los abogados que representan a la madre calificaron la conducta de Ke como "reprochable y merecedora de reprimenda" porque llevó a "considerable tiempo y gasto" determinar si los casos que citó eran reales.

Rechazo de la solicitud de costos especiales

Solicitaron que se otorgaran costos especiales, pero el juez a cargo del caso rechazó la solicitud, diciendo que tal "medida extraordinaria" requeriría "una determinación de conducta reprochable o abuso del proceso" por parte del abogado.

"Citar casos falsos en documentos judiciales y otros materiales presentados ante el tribunal es un abuso del proceso y equivale a hacer una declaración falsa al tribunal", escribió el juez David Masuhara. "Sin control, puede llevar a una injusticia".

Encontró que el abogado contrario estaba "bien dotado de recursos" y ya había producido "volúmenes" de materiales en el caso. "No había ninguna posibilidad de que los dos casos falsos hubieran pasado desapercibidos".

El juez Masuhara dijo que las acciones de Ke produjeron "publicidad negativa significativa" y que ella era "ingenua respecto a los riesgos de usar ChatGPT", pero encontró que tomó medidas para corregir sus errores.

"No encuentro que haya tenido la intención de engañar o desviar. Acepto la sinceridad de la disculpa de la Sra. Ke hacia el abogado y el tribunal. Su arrepentimiento fue claramente evidente durante su comparecencia y argumentos orales en el tribunal".

A pesar de la negativa de Masuhara a otorgar costos especiales, la sociedad de leyes de Columbia Británica está investigando ahora la conducta de Ke.

"Aunque se reconoce los posibles beneficios del uso de IA en la prestación de servicios legales, la sociedad de leyes también ha emitido orientación a los abogados sobre el uso apropiado de la IA y espera que los abogados cumplan con los estándares de conducta esperados de un abogado competente si confían en la IA para servir a sus clientes", dijo un portavoz, Christine Tam, en un comunicado.

Otros Artículos