28/2/2024 | The Guardian
Un abogado en Canadá está bajo fuego después de que el chatbot de inteligencia artificial que utilizó para investigaciones legales creara casos "ficticios", en el último episodio que expone los peligros de las tecnologías no probadas en el tribunal.
La abogada de Vancouver, Chong Ke, quien ahora enfrenta una investigación sobre su conducta, supuestamente utilizó ChatGPT para desarrollar presentaciones legales durante un caso de custodia de menores en el tribunal supremo de Columbia Británica.
Según documentos judiciales, Ke representaba a un padre que quería llevar a sus hijos al extranjero en un viaje, pero estaba envuelto en una disputa de separación con la madre de los niños. Supuestamente, Ke solicitó a ChatGPT ejemplos de casos anteriores que pudieran aplicarse a las circunstancias de su cliente. El chatbot, desarrollado por OpenAI, produjo tres resultados, dos de los cuales ella presentó al tribunal.
Sin embargo, los abogados de la madre de los niños no pudieron encontrar ningún registro de los casos, a pesar de varias solicitudes.
Cuando se enfrentó a las discrepancias, Ke retrocedió.
"No tenía idea de que estos dos casos pudieran ser erróneos. Después de que mi colega señaló el hecho de que no se podían encontrar, investigué por mi cuenta y tampoco pude encontrar los problemas", escribió Ke en un correo electrónico al tribunal. "No tenía la intención de engañar al abogado contrario ni al tribunal y me disculpo sinceramente por el error que cometí".
A pesar de la popularidad de los chatbots, que se entrenan con amplios conjuntos de datos, los programas también son propensos a errores, conocidos como "alucinaciones".
Los abogados que representan a la madre calificaron la conducta de Ke como "reprochable y merecedora de reprimenda" porque llevó a "considerable tiempo y gasto" determinar si los casos que citó eran reales.
Solicitaron que se otorgaran costos especiales, pero el juez a cargo del caso rechazó la solicitud, diciendo que tal "medida extraordinaria" requeriría "una determinación de conducta reprochable o abuso del proceso" por parte del abogado.
"Citar casos falsos en documentos judiciales y otros materiales presentados ante el tribunal es un abuso del proceso y equivale a hacer una declaración falsa al tribunal", escribió el juez David Masuhara. "Sin control, puede llevar a una injusticia".
Encontró que el abogado contrario estaba "bien dotado de recursos" y ya había producido "volúmenes" de materiales en el caso. "No había ninguna posibilidad de que los dos casos falsos hubieran pasado desapercibidos".
El juez Masuhara dijo que las acciones de Ke produjeron "publicidad negativa significativa" y que ella era "ingenua respecto a los riesgos de usar ChatGPT", pero encontró que tomó medidas para corregir sus errores.
"No encuentro que haya tenido la intención de engañar o desviar. Acepto la sinceridad de la disculpa de la Sra. Ke hacia el abogado y el tribunal. Su arrepentimiento fue claramente evidente durante su comparecencia y argumentos orales en el tribunal".
A pesar de la negativa de Masuhara a otorgar costos especiales, la sociedad de leyes de Columbia Británica está investigando ahora la conducta de Ke.
"Aunque se reconoce los posibles beneficios del uso de IA en la prestación de servicios legales, la sociedad de leyes también ha emitido orientación a los abogados sobre el uso apropiado de la IA y espera que los abogados cumplan con los estándares de conducta esperados de un abogado competente si confían en la IA para servir a sus clientes", dijo un portavoz, Christine Tam, en un comunicado.
4/5/2024 | The Guardian
Ghassan Abu-Sitta, quien iba a hablar en el Senado francés, se entera de que Alemania ha impuesto una prohibición de entrada en toda la zona de Schengen.
18/3/2024 | New York Times
Una elección presidencial de trámite sin competencia real permite a Vladimir Putin afirmar un fuerte apoyo popular para su dominio doméstico y la invasión de Ucrania.
26/2/2024 | New York Times
Kyle Parker dice que entregó equipo de francotirador como parte de su apoyo desenfrenado a Ucrania. Los investigadores dicen que puede haber "problemas de contrainteligencia".
25/2/2024 | BBC News
Serhiy sufrió lesiones catastróficas, incluyendo la pérdida de ambas piernas, cuando una mina antitanque explotó en su vehículo.
22/2/2024 | BBC News
Los ataques del pastor alemán causaron que el Servicio Secreto cambiara de tácticas por seguridad, según documentos.
21/2/2024 | BBC News
Pekín sugiere que bloquear los llamados a un alto el fuego inmediato da una "luz verde a la continuación de la masacre".