Scathax

Noticias Internacionales

Abogado canadiense bajo fuego por presentar casos falsos creados por un chatbot de inteligencia artificial.

28/2/2024 | The Guardian

Abogado canadiense bajo fuego por presentar casos falsos creados por un chatbot de inteligencia artificial.

Un abogado en Canadá está bajo fuego después de que el chatbot de inteligencia artificial que utilizó para investigaciones legales creara casos "ficticios", en el último episodio que expone los peligros de las tecnologías no probadas en el tribunal.

La abogada de Vancouver y el caso de custodia de menores

La abogada de Vancouver, Chong Ke, quien ahora enfrenta una investigación sobre su conducta, supuestamente utilizó ChatGPT para desarrollar presentaciones legales durante un caso de custodia de menores en el tribunal supremo de Columbia Británica.

Según documentos judiciales, Ke representaba a un padre que quería llevar a sus hijos al extranjero en un viaje, pero estaba envuelto en una disputa de separación con la madre de los niños. Supuestamente, Ke solicitó a ChatGPT ejemplos de casos anteriores que pudieran aplicarse a las circunstancias de su cliente. El chatbot, desarrollado por OpenAI, produjo tres resultados, dos de los cuales ella presentó al tribunal.

Sin embargo, los abogados de la madre de los niños no pudieron encontrar ningún registro de los casos, a pesar de varias solicitudes.

Cuando se enfrentó a las discrepancias, Ke retrocedió.

"No tenía idea de que estos dos casos pudieran ser erróneos. Después de que mi colega señaló el hecho de que no se podían encontrar, investigué por mi cuenta y tampoco pude encontrar los problemas", escribió Ke en un correo electrónico al tribunal. "No tenía la intención de engañar al abogado contrario ni al tribunal y me disculpo sinceramente por el error que cometí".

A pesar de la popularidad de los chatbots, que se entrenan con amplios conjuntos de datos, los programas también son propensos a errores, conocidos como "alucinaciones".

Los abogados que representan a la madre calificaron la conducta de Ke como "reprochable y merecedora de reprimenda" porque llevó a "considerable tiempo y gasto" determinar si los casos que citó eran reales.

Rechazo de la solicitud de costos especiales

Solicitaron que se otorgaran costos especiales, pero el juez a cargo del caso rechazó la solicitud, diciendo que tal "medida extraordinaria" requeriría "una determinación de conducta reprochable o abuso del proceso" por parte del abogado.

"Citar casos falsos en documentos judiciales y otros materiales presentados ante el tribunal es un abuso del proceso y equivale a hacer una declaración falsa al tribunal", escribió el juez David Masuhara. "Sin control, puede llevar a una injusticia".

Encontró que el abogado contrario estaba "bien dotado de recursos" y ya había producido "volúmenes" de materiales en el caso. "No había ninguna posibilidad de que los dos casos falsos hubieran pasado desapercibidos".

El juez Masuhara dijo que las acciones de Ke produjeron "publicidad negativa significativa" y que ella era "ingenua respecto a los riesgos de usar ChatGPT", pero encontró que tomó medidas para corregir sus errores.

"No encuentro que haya tenido la intención de engañar o desviar. Acepto la sinceridad de la disculpa de la Sra. Ke hacia el abogado y el tribunal. Su arrepentimiento fue claramente evidente durante su comparecencia y argumentos orales en el tribunal".

A pesar de la negativa de Masuhara a otorgar costos especiales, la sociedad de leyes de Columbia Británica está investigando ahora la conducta de Ke.

"Aunque se reconoce los posibles beneficios del uso de IA en la prestación de servicios legales, la sociedad de leyes también ha emitido orientación a los abogados sobre el uso apropiado de la IA y espera que los abogados cumplan con los estándares de conducta esperados de un abogado competente si confían en la IA para servir a sus clientes", dijo un portavoz, Christine Tam, en un comunicado.

Otros Artículos

Esta terapia ayuda a las víctimas de delitos violentos. ¿Quién la pagará?

20/4/2024 | New York Times

Esta terapia ayuda a las víctimas de delitos violentos. ¿Quién la pagará?

"Los centros de recuperación de trauma" son apreciados tanto por los funcionarios de orden y seguridad como por los activistas progresistas por una gran razón: funcionan. Pero para permanecer abiertos en Nueva York, necesitan más financiamiento.

¿Por qué Nueva Zelanda no impuso sanciones a China?

27/3/2024 | The Guardian

¿Por qué Nueva Zelanda no impuso sanciones a China?

Nueva Zelanda no siguió los pasos de Estados Unidos y Reino Unido al imponer restricciones financieras después de acusar a Beijing de tener vínculos con ciberataques.

'Una heredera irlandesa' lo estafó. Él comenzó un podcast para localizarla.

26/3/2024 | New York Times

'Una heredera irlandesa' lo estafó. Él comenzó un podcast para localizarla.

Marianne Smyth fue condenada por gran robo después de afirmar que su familia la había excluido de una herencia. Enfrenta extradición a Irlanda del Norte por cargos separados de fraude y robo.

Senegal se dirige a las urnas ensombrecido por protestas mortales

22/3/2024 | The Guardian

Senegal se dirige a las urnas ensombrecido por protestas mortales

La reputación del país como una de las democracias modelo de África está bajo amenaza después de semanas de violencia.

Netanyahu es un sobreviviente, pero sus problemas se están acumulando.

8/3/2024 | BBC News

Netanyahu es un sobreviviente, pero sus problemas se están acumulando.

Aunque la mayoría de los israelíes apoyan la guerra en Gaza, la confianza en el primer ministro es baja, escribe Wyre Davies.

Mujer pakistaní vestida con traje impreso en árabe es salvada de una multitud que la acusaba de blasfemia.

26/2/2024 | BBC News

Mujer pakistaní vestida con traje impreso en árabe es salvada de una multitud que la acusaba de blasfemia.

Cientos acusaron erróneamente a la mujer de llevar un vestido adornado con versos del Corán.