» Ir al portal nuevo de Microjuris    OK

Tropiezos del litigante por derecho propio con la Inteligencia Artificial

16 de febrero de 2026
COMPARTIR

Por Daniel Rivera Vargas

La herramienta de la Inteligencia Artificial, o AI, por sus siglas en inglés, no solo ha causado problemas en los tribunales por los casos en que abogados han hecho mal uso de ella, sino también por los ciudadanos que la usan erradamente, ya sea para llevar ellos mismos sus demandas o para cuestionar el trabajo de sus abogados, según juristas entrevistados.

Para el licenciado Manuel Quilichini, quien ha trabajado extensamente el tema de la modernización de los tribunales y ha ofrecido cursos relacionados a tecnología en el campo jurídico, dijo que hay casos en Estados Unidos donde no solo los ciudadanos radican demandas y mociones por derecho propio, también conocido como Pro Se, pero que incluso participan en argumentaciones orales usando Inteligencia Artificial.

El problema, según el expresidente del Colegio de Abogados y Abogadas de Puerto Rico, es que ya está probado que AI en ocasiones ofrece información incorrecta. Ya se han reportado varios casos en Puerto Rico en los que abogados han sido sancionados por no verificar la información que obtuvieron de AI.  Hay por lo menos dos casos que ya han sido objeto de debate público, a nivel estatal dos abogadas sancionadas en $1,000 por usar citas falsas, porque se las proveyó AI y en otro, en el foro federal, se le ordenó a un abogado pagar $28,000 a los abogados de la parte contraria, esto por usar citas falsas de Inteligencia Artificial.

No todos los errores de abogados por el uso sin corroboración de la Inteligencia Artificial han terminado en sanción, dijo el expresidente de los togados. Hay un caso donde un abogado usó cerca de 50 citas en un recurso ante el Tribunal de Apelaciones y de estas cerca de 36 fueron "alucinaciones", como algunos llaman a las invenciones de esta tecnología. El abogado no fue sancionado porque, en opinión de Quilichini, fue "humilde" y aceptó rápidamente el error cometido.

"Ya los abogados están advertidos pero la gente, los civiles, no están al tanto. Son gente que no sabe las limitaciones de la inteligencia artificial y hay cuentos de horror", señaló. "Hubo un caso (en Estados Unidos) de un Pro Se dónde se radicó una moción llena de información falsa y el juez le desestimó toda la demanda, un ‘termination sanction’", contó el letrado

Pero, ciertamente la AI es una herramienta que puede ser de utilidad, especialmente en personas que no consiguen abogados para llevar sus causas, dijo Quilichini. Afirmó que entidades como Servicios Legales ha dicho que l 92% de las personas bajo el nivel de pobreza no consigue abogado que los represente, así que AI les abre una puerta para ventilar su reclamación sin un abogado.

Cuestionamiento de decisiones

Quilichini también comentó que otra área en la que se ve el uso de Inteligencia Artificial por parte de la ciudadanía en el campo jurídico es cuando los clientes usan la herramienta para cuestionar las decisiones o acciones de sus abogados, lo que causa incomodidad en parte de la profesión jurídica.

"Esto afecta la relación de abogado cliente, que está basada en confianza", dijo.

Microjuris pidió a la Administración de Tribunales una reacción a este tema y de inmediato no fue posible conseguirla. 

Quilichini comentó que tiene conocimiento de que hay proyectos de AI en el Poder Judicial de Puerto Rico, pero enfocados en los jueces y sus secretarias, pero que desconoce si los hay "forward facing, para los clientes".

También estas mociones de litigantes por derecho propio o de abogados llenas de citas falsas son un problema para el abogado que no examina esas citas y no se percata de las alucinaciones de AI. "Ese abogado está violando las normas, porque debe examinar las citas. eso se llama deber de diligencia".

Mientras, para el exjuez Alfonso Martínez Piovanetti, catedrático adjunto de la Escuela de Derecho de la Universidad de Puerto Rico, esta situación en los tribunales, con los clientes diciéndole al letrado que debe hacer "porque ChatGTP dice una cosa o porque Gemini me dice lo otro" es similar a lo que sucede en la medicina, donde pacientes llegan al doctor pidiéndole el tratamiento que le recomendó la AI.

"Es algo cada vez más presente y un reto para la comunidad jurídica", dijo Martínez Piovanetti.

Pero Martínez Piovanetti dijo que hay que tener claro que la tecnología llegó para quedarse, que así  ha reconocido el Tribunal Supremo cuando creó la regla 1.19 de conducta profesional estableciendo un deber de competencia y diligencia tecnológica. 

Añadió que los ciudadanos que optan por representarse por derecho propi están regidos por las mismas reglas procesales y de conducta de un abogado, así que el litigante por derecho propio -ni ahora con la AI ni antes- este excusado de acatar las normas jurídicas por no ser abogado. 

"Es bastante común que las persona por derecho propio tengan deficiencias o no incluyan todas las partes, es común que sus mociones y recursos tengan deficiencias, porque no las presentó un profesional del derecho", aseveró.

"Los abogados y abogadas siguen siendo necesarios. El adiestramiento que reciben en la Escuela de  Derecho, como un profesional, como tal sigue siendo indispensable para que nuestro ordenamiento jurídico opere como fue concebido y diseñado. Y  yo soy un promotor de usar estas herramientas pero con un uso responsable", señaló el profesor

Powered by Microjuris.com