» Ir al portal nuevo de Microjuris    OK

COLUMNA – No sigamos tropezando con la misma piedra

07 de diciembre de 2023
COMPARTIR

Las columnas deben enviarse a mad@corp.microjuris.com y deben ser de 600-800 palabras. 

Por el Lcdo. Manuel A. Quilichini
Presidente del Colegio de Abogados y Abogadas de Puerto Rico

Hace varios meses atrás dos abogados de Nueva York se hicieron notorios cuando utilizaron ChatGPT para hacer una investigación legal en anticipo de preparar una moción en oposición a una desestimación por prescripción de un caso civil. El problema fue que ChatGPT citó 6casos que resultaron ser totalmente falsos. Ninguna de las citas era correcta ni contenían las conclusiones citadas en el escrito. Eventualmente los abogados admitieron que ChatGPT les suplió la información errónea y ellos no hicieron nada por corroborar la misma. Las disculpas poco le sirvieron al ser sancionados con una multa de $5,000.

La semana pasada se reportó que otro abogado volvió a tropezar con la misma piedra. En abril de 2023, un cliente contrató a Zacharía C. Crabill para preparar una moción para dejar sin efecto una sentencia en un caso civil. Crabill, quien nunca había redactado este tipo de moción, recurrió a ChatGPT para realizar su investigación legal, y usaron los casos citados por ChatGPT en su moción. Crabill no leyó los casos que citados por ChatGPT ni intentó verificar que las citas fueran precisas. En mayo de 2023, Crabill presentó la moción ante el tribunal viendo el caso. Antes de una vista sobre la moción, Crabill descubrió que los casos que ChatGPT le había provisto eran incorrectos o ficticios. Crabill no alertó al tribunal sobre los casos ficticios duranta la vista celebrada y tampoco retiró la moción una vez supo de la falsedad de las citas. Cuando el juez expresó preocupación sobre la precisión de los casos, Crabill atribuyó falsamente los errores a un asistente legal. Seis días después de la vista, Crabill presentó una declaración jurada ante el tribunal, explicando que utilizó ChatGPT cuando redactó la moción.

El abogado no cumplió con su obligación ética de verificar que la información que usó era correcta, a pesar de que así lo certificaba con su firma en el documento. Sus actuaciones violaron varias normas éticas, incluyendo la del deber de competencia (nuestro Canon 18), el deber de sinceridad y honradez (nuestro Canon 35) así como la certificación bajo la Regla 11 de Procedimiento Civil federal. Por ello fue suspendido por un año y un día efectivo el 22 de noviembre pasado.

Las tecnologías de inteligencia artificial generativa son buenas para traducir o evaluar documentos, crear bosquejos, y otras labores generales. Sin embargo, tienen serias limitaciones y debemos desconfiar de los resultados que nos ofrezca ChatGPT cuando se trate de investigaciones legales. Las leyes, reglamentos y decisiones que nos provea se deben presumir incorrectas hasta tanto no se corroboren por fuentes distintas. No seamos víctimas de las «alucinaciones» o inexactitudes de estos sistemas inteligentes. Aprenda la lección, no tropiece con la misma piedra que otros han tropezado.

Las columnas deben enviarse a mad@corp.microjuris.com y deben ser de 600-800 palabras. 

Powered by Microjuris.com