Scathax

Noticias Internacionales

Abogado canadiense bajo fuego por presentar casos falsos creados por un chatbot de inteligencia artificial.

28/2/2024 | The Guardian

Abogado canadiense bajo fuego por presentar casos falsos creados por un chatbot de inteligencia artificial.

Un abogado en Canadá está bajo fuego después de que el chatbot de inteligencia artificial que utilizó para investigaciones legales creara casos "ficticios", en el último episodio que expone los peligros de las tecnologías no probadas en el tribunal.

La abogada de Vancouver y el caso de custodia de menores

La abogada de Vancouver, Chong Ke, quien ahora enfrenta una investigación sobre su conducta, supuestamente utilizó ChatGPT para desarrollar presentaciones legales durante un caso de custodia de menores en el tribunal supremo de Columbia Británica.

Según documentos judiciales, Ke representaba a un padre que quería llevar a sus hijos al extranjero en un viaje, pero estaba envuelto en una disputa de separación con la madre de los niños. Supuestamente, Ke solicitó a ChatGPT ejemplos de casos anteriores que pudieran aplicarse a las circunstancias de su cliente. El chatbot, desarrollado por OpenAI, produjo tres resultados, dos de los cuales ella presentó al tribunal.

Sin embargo, los abogados de la madre de los niños no pudieron encontrar ningún registro de los casos, a pesar de varias solicitudes.

Cuando se enfrentó a las discrepancias, Ke retrocedió.

"No tenía idea de que estos dos casos pudieran ser erróneos. Después de que mi colega señaló el hecho de que no se podían encontrar, investigué por mi cuenta y tampoco pude encontrar los problemas", escribió Ke en un correo electrónico al tribunal. "No tenía la intención de engañar al abogado contrario ni al tribunal y me disculpo sinceramente por el error que cometí".

A pesar de la popularidad de los chatbots, que se entrenan con amplios conjuntos de datos, los programas también son propensos a errores, conocidos como "alucinaciones".

Los abogados que representan a la madre calificaron la conducta de Ke como "reprochable y merecedora de reprimenda" porque llevó a "considerable tiempo y gasto" determinar si los casos que citó eran reales.

Rechazo de la solicitud de costos especiales

Solicitaron que se otorgaran costos especiales, pero el juez a cargo del caso rechazó la solicitud, diciendo que tal "medida extraordinaria" requeriría "una determinación de conducta reprochable o abuso del proceso" por parte del abogado.

"Citar casos falsos en documentos judiciales y otros materiales presentados ante el tribunal es un abuso del proceso y equivale a hacer una declaración falsa al tribunal", escribió el juez David Masuhara. "Sin control, puede llevar a una injusticia".

Encontró que el abogado contrario estaba "bien dotado de recursos" y ya había producido "volúmenes" de materiales en el caso. "No había ninguna posibilidad de que los dos casos falsos hubieran pasado desapercibidos".

El juez Masuhara dijo que las acciones de Ke produjeron "publicidad negativa significativa" y que ella era "ingenua respecto a los riesgos de usar ChatGPT", pero encontró que tomó medidas para corregir sus errores.

"No encuentro que haya tenido la intención de engañar o desviar. Acepto la sinceridad de la disculpa de la Sra. Ke hacia el abogado y el tribunal. Su arrepentimiento fue claramente evidente durante su comparecencia y argumentos orales en el tribunal".

A pesar de la negativa de Masuhara a otorgar costos especiales, la sociedad de leyes de Columbia Británica está investigando ahora la conducta de Ke.

"Aunque se reconoce los posibles beneficios del uso de IA en la prestación de servicios legales, la sociedad de leyes también ha emitido orientación a los abogados sobre el uso apropiado de la IA y espera que los abogados cumplan con los estándares de conducta esperados de un abogado competente si confían en la IA para servir a sus clientes", dijo un portavoz, Christine Tam, en un comunicado.

Otros Artículos

No más travesuras de monos: Los macacos de la ciudad tailandesa serán encerrados en jaulas.

6/4/2024 | The Guardian

No más travesuras de monos: Los macacos de la ciudad tailandesa serán encerrados en jaulas.

Los primates son símbolo de Lopburi, pero los residentes han tenido suficiente ya que los monos recurren a la violencia para obtener comida.

Analista de inteligencia del Ejército de EE. UU. acusado de vender información militar clasificada a China

8/3/2024 | BBC News

Analista de inteligencia del Ejército de EE. UU. acusado de vender información militar clasificada a China

Los mensajes del Sargento Korbein Schultz incluyen uno donde dijo que "desearía poder ser 'Jason Bourne'" - así lo indica la acusación.

Aliado de Navalny, Leonid Volkov, promete continuar la lucha contra Putin después del ataque con martillo en Vilnius.

27/2/2024 | The Guardian

Aliado de Navalny, Leonid Volkov, promete continuar la lucha contra Putin después del ataque con martillo en Vilnius.

"No nos rendiremos", dijo Volkov en un video después de ser dado de alta del hospital tras un ataque en Lituania que lo dejó cubierto de sangre.

'¿Quién me llamará papá?' Las lágrimas de un padre de Gaza que perdió a 103 familiares.

26/2/2024 | BBC News

'¿Quién me llamará papá?' Las lágrimas de un padre de Gaza que perdió a 103 familiares.

La esposa, madre e hijas de Ahmad al-Ghuferi murieron cuando un ataque alcanzó el hogar donde se resguardaban.

Facciones palestinas se reunirán en Moscú mientras Occidente rechaza el papel de Hamas en el gobierno de Gaza después de la guerra.

18/2/2024 | The Guardian

Facciones palestinas se reunirán en Moscú mientras Occidente rechaza el papel de Hamas en el gobierno de Gaza después de la guerra.

Autoridad Palestina 'lista para involucrarse', dice el primer ministro antes de las negociaciones sobre la formación de un nuevo gobierno en Gaza.

Antes del tiroteo en la iglesia de Houston, indicios de advertencia y compras de armas.

13/2/2024 | New York Times

Antes del tiroteo en la iglesia de Houston, indicios de advertencia y compras de armas.

Una mujer que abrió fuego en la Iglesia Lakewood se involucró en "discursos antisemitas" y mantenía armas en su casa incluso después de haber sido hospitalizada involuntariamente por enfermedad mental, según su suegra.