» Ir al portal nuevo de Microjuris    OK

La responsabilidad profesional ante el uso de inteligencia artificial

26 de agosto de 2025
COMPARTIR

Las opiniones expresadas en este artículo son únicamente del(a) autor(a) y no reflejan las opiniones y creencias de Microjuris o sus afiliados.

Por Alfonso Martínez Piovanetti
Catedrático Auxiliar, Escuela de Derecho de la Universidad de Puerto Rico
https://martinezpiovanetti.com

El pasado 22 de agosto de 2025, el Tribunal de Primera Instancia, Sala Superior de San Juan, por voz de la Honorable Larissa Ortiz Modestti, emitió una resolución histórica en el caso Betancourt Gómez v. Colegio de Profesionales de la Enfermería de Puerto Rico y otros, SJ2023CV10615. Este se convierte en el primer caso que sale a relucir públicamente donde se sanciona en el Poder Judicial de Puerto Rico a profesionales del derecho por el uso indebido de inteligencia artificial generativa.

La controversia surgió cuando la parte demandante identificó que una moción de desestimación presentada por las abogadas del codemandado contenía al menos seis referencias a casos del Tribunal Supremo de Puerto Rico que simplemente no existían. Las citas fabricadas incluían decisiones inexistentes con nombres de casos inventados y supuestas citas textuales atribuidas al máximo foro judicial que nunca fueron emitidas. Ante el señalamiento, las abogadas admitieron que las citas habían sido "erróneamente atribuidas debido a un error involuntario durante la búsqueda y selección de jurisprudencia", atribuyendo el problema a "las limitaciones derivadas de la consulta de fuentes generales en internet" y sugiriendo, sin admitirlo expresamente, el uso de aplicaciones de inteligencia artificial.

Cursos en línea del Lcdo. Alfonso Martínez Piovanetti en Cursos Microjuris

Ahora bien, este no es el primer incidente de esta naturaleza en Puerto Rico. En PR Soccer League v. Federación Puertorriqueña de Fútbol, No. 23-1203 (D.P.R. 2025), el Hon. Raúl Arias Marxuach, quien preside el Tribunal Federal para el Distrito de Puerto Rico, encontró escritos repletos de citas de contenido inexistente, incluyendo un caso cuya cita y hechos solo aparecían al consultar ChatGPT. Curiosamente, en ese caso los abogados negaron el uso de IA generativa, atribuyendo los errores a restricciones significativas de tiempo. El tribunal federal, aplicando la Regla 11(b)(2) de Procedimiento Civil federal (análoga a la Regla 9 de Procedimiento Civil de Puerto Rico), ordenó el pago de honorarios de abogados como sanción y advirtió que futuras violaciones resultarían en la revocación de admisiones pro hac vice y referidos disciplinarios.

La tendencia sancionadora en los tribunales federales ha sido variada. Por ejemplo, en Mid Central Op. Eng. Health and Welfare Fund v. Hoosiervac, No. 2:24-cv-00326-JPH-MJD (S.D. Ind. 2025), se impuso una multa de $15,000 al abogado responsable, $5,000 por cada escrito con citas falsas, además de un referido para medidas disciplinarias. Mientras tanto, en Wadsworth v. Walmart, No. 2:23-CV-118-KHR (D. Wyo. 2025), donde los abogados presentaron mociones citando ocho casos inexistentes de nueve, el tribunal revocó la admisión pro hac vice del abogado principal e impuso multas de $3,000, $1,000 y $1,000 a los diferentes abogados involucrados, reconociendo como atenuante que el bufete había implementado protocolos correctivos adecuados.

En el caso de Betancourt Gómez, el Tribunal de Primera Instancia impuso una sanción de $1,000 bajo la Regla 9.3 de Procedimiento Civil, pero también refirió el asunto al Tribunal Supremo de Puerto Rico para que se evalúe la conducta profesional de las abogadas involucradas. Esta determinación plantea interrogantes sobre el alcance de las sanciones y el curso procesal más apropiado ante situaciones como esta, las cuales pudieran ser cada vez más frecuentes en nuestros tribunales ante el uso cada vez más frecuente de estas tecnologías en la práctica legal. Al hacer el referido, la jueza se vio obligada a inhibirse del caso conforme a lo resuelto en Municipio de Carolina v. CH Properties, 200 DPR 701 (2018), lo que requiere la reasignación del caso a otra sala y potencialmente una dilación en los procedimientos.

En ese sentido, surge la pregunta de si cada incidente de uso indebido de IA debe resultar en un referido al Tribunal Supremo, o si los tribunales de instancia podrían manejar estas situaciones dentro de sus prerrogativas discrecionales bajo la Regla 9.3 de Procedimiento Civil, que reconoce el poder inherente del tribunal para supervisar la conducta de los abogados que postulan ante sí. Los procesos de descalificación de abogados, por analogía, permiten que el tribunal de instancia evalúe la conducta ética imputada sin que ello constituya un proceso disciplinario ni se requiera un referido al Tribunal Supremo o la inhibición del juez o de la jueza. Una sanción adecuada bajo la Regla 9.3 podría ser suficiente para casos de menor gravedad, promoviendo la economía procesal y el manejo efectivo de los procedimientos ante el foro primario.

La nueva Regla 1.19 de Conducta Profesional, como analicé en mi columna anterior para Microjuris, representa un avance pionero al establecer deberes específicos de competencia y diligencia tecnológica. Esta regla y sus comentarios, que entrará en vigor en enero de 2026, contempla expresamente situaciones como la presente, prohibiendo "presentar documentos sin validar el contenido generado mediante herramientas tecnológicas". Sin embargo, la regla no establece expresamente el curso procesal a seguir cuando surgen violaciones a sus preceptos, un aspecto que pudiera ameritar clarificación por parte del Tribunal Supremo.

Finalmente, es importante recordar que el uso de inteligencia artificial en la práctica del Derecho no está ni debe estar prohibido, como se puede colegir de la nueva Regla 1.19 de Conducta Profesional aprobada recientemente por nuestro Tribunal Supremo. La IA generativa es una herramienta valiosa de trabajo, pero no sustituye el conocimiento especializado, las responsabilidades éticas, la creatividad ni el criterio propio de los profesionales del derecho. Su efectividad depende de las destrezas de delegación y supervisión, sujetas siempre a un deber indelegable de verificación de resultados. El reto para nuestra profesión es integrar estas herramientas responsablemente, reconociendo que aunque la tecnología anti-alucinación mejorará con el tiempo, la impericia profesional de depender irreflexivamente del contenido generado por herramientas de IA seguirá siendo inaceptable. Este caso, lejos de ser solo una advertencia, representa una oportunidad valiosa para que la profesión y la judicatura puertorriqueña, guiada por la innovadora Regla 1.19, establezca estándares claros sobre cómo integrar la tecnología de manera responsable sin comprometer los principios fundamentales de competencia, diligencia y honradez.

Las columnas deben enviarse a mad@corp.microjuris.com y deben ser de 600-800 palabras. 

Powered by Microjuris.com