» Ir al portal nuevo de Microjuris OK
Por el Lcdo. Roberto L. López Dávila, LL.M
Ya nadie discute que la inteligencia artificial (IA), en sus distintas manifestaciones, está generando en el Derecho y en su práctica transformaciones de hondura equivalente a las que en general la tecnología ha venido produciendo en los distintos órdenes de la sociedad. Esta centralidad de la IA en el ejercicio de la abogacía no solo se aprecia en la adaptación de los abogados y abogadas a la nomenclatura técnica y conceptual propia de la tecnología para asumirla de manera coherente y responsable en sus prácticas. También se advierte de su cada vez más notable consciencia de los riesgos que apareja el uso de las variantes más notorias y populares de estas herramientas, como los llamados sistemas generativos, y que se manifiestan, entre otras limitaciones, en las mal denominadas «alucionaciones»1. Con la existencia de por lo menos dos casos en esta jurisdicción en la que presencia de «alucionaciones» en escritos legales han sido refrendada y sancionada por tribunales de justicia, la abogacía puertorriqueña sabe o debe saber que se trata de una amenaza consustancial a estos sistemas, por lo que, de usarlos como parte de sus prácticas, la abogacía tiene la obligación de hacerlo de forma responsable, competente y diligente, tal y como lo requiere ya de manera conspicua las nuevas Reglas de Conducta Profesional2, con arreglo al nuevo deber deontológico que instituye de competencia y diligencia tecnológica.3
Pero como si todas estas exigencias no fueran ya suficientes, ahora se añade otro nivel de complejidad a este panorama con la irrupción de una nueva generación de IA que progresivamente irá adquiriendo mayor visibilidad según vaya integrándose de manera transversal al tejido social, económico y productivo, así como a los diversos entornos profesionales. Promete auténticos desafíos para el Derecho en general, así como a la abogacía en particular, derivados de los riesgos únicos y específicos que plantea. Se trata de la IA agéntica. Consiste de sistemas algorítmicos dotados de amplia autonomía para tomar decisiones en cascada y efectuar múltiples acciones complejas en simultáneo4. Conocidos también como Large Action Models o Large Agent Models, son modelos que se apoyan en Large Language Models como lo hacen los actuales sistemas generativos, pero van un paso más allá, al ser capaces de ejecutar tareas que trascienden los linderos de la máquina, por así decirlo, para producir efectos en el mundo «real» externo5.
Para distinguir entre los sistemas generativos que hemos conocido hasta el momento y la IA agéntica, y así entender el próximo estadio de desarrollo que supone en evolución tecnológica, el siguiente ejemplo puede resultar ilustrativo: mientras que una LLM generativa podría generar una propuesta de película que podría ser interesante ver en el cine en respuesta a prompts (instrucciones) en tal sentido, la IA agéntica iría un paso o varias pasos más allá; no solo seleccionaría la película propuesta, acudiendo de forma independiente a la página web de la sala de cine, sino que, recurriendo a la vez a la cuenta de banco del usuario, pagaría las taquillas correspondientes e incluso registraría el evento en el calendario de este último.
Con este ejemplo es posible ya apreciar los problemas y riesgos que estos sistemas comportan, en particular, si los mismos son utilizados por abogados como parte de la representación de sus clientes.
Algunos de estos problemas, sin perjuicio de otros que puedan surgir en el futuro, incluyen los siguientes:
Problemas de desalineamiento entre los objetivos de los humanos, como principal, y los sistemas, como agentes – pudiendo manifestarse, siguiendo con el ejemplo brindado, en la determinación independiente del sistema de comprar drogas ilegales en la Dark Web para maximizar los objetivos de diversión de acudir al cine, pese a no haber sido ordenado por el usuario y estar en conflicto con los objetivos de este en tal sentido6.
Problemas de impredecibilidad – por virtud de la continua adaptación de estos sistemas a la información en tiempo real que reciben y la evolución de los escenarios a los que puedan estar expuestos, cuyos resultados en muchos casos el usuario no habría sido o no podría ser capaz de anticipar7.
Problemas de transparencia y explicabilidad, por aparejar una compleja cadena de decisiones difíciles en ocasiones de escrutar e interpretar8.
Problemas de generar errores "en cascada", derivados de la forma "encadenada" en que estos sistemas emiten sus decisiones9.
Problemas de seguridad y privacidad10 – como es posible apreciar, volviendo al ejemplo ofrecido, de la capacidad funcional de estos sistemas de acceder a las cuentas de banco en línea de los usuarios, como parte de las tareas múltiples que son susceptibles de accionar para cumplir con objetivos planteados, en este caso, ver una película en el cine.
Problemas de supervisión ante la rapidez y escalabilidad de las decisiones y del accionar de estos sistemas, en particular los de tipo multiagente11.
Estos son parte de los desafíos que los abogados y abogadas tendrán que ayudar a sus clientes a navegar al enfrentar controversias jurídicas derivadas del uso de estas tecnologías emergentes. Retos que igualmente la abogacía estará llamada a asumir para asegurar el uso ético y responsable de estas herramientas de emplearlas como parte de sus prácticas12. Sin perjuicio de las varias preguntas que están por contestarse, sobre todo dada la coyuntura temprana del despliegue de esta tecnología en la que nos situamos, los abogados y abogadas tienen en las nuevas Reglas de Conducta Profesional una brújula moral básica para comenzar a hallar algunas de estas respuestas. Como mínimo, el inicio de este camino debería comportar que los abogados y abogadas se informen y se capaciten sobre estas tecnologías disruptivas, familiarizándose con sus capacidades, beneficios, limitaciones y riesgos, como lo exige la Regla 1.19 de las nuevas Reglas, sobre competencia y diligencia tecnológica.
NOTAS
1 Lic. Roberto L. López Dávila, B.A., J.D., Master in Laws, FHCA, CIPP/US/E, CIPM, FIP, CSX-F, Asesor Legal, Oficina de Administración de los Tribunales de Puerto Rico, ex AI Policy Fellow, Center for AI and Digital Policy. Las expresiones contenidas en este trabajo son de la entera responsabilidad del autor, por lo que no son atribuibles en modo alguno al Poder Judicial, a la Oficina de Administración de los Tribunales o a cualquiera de sus dependencias. Para cualquier comentario sobre el escrito, puede escribir al autor a robertoluisster@gmail.com
Y, decimos mal llamadas "alucinaciones", toda vez que se trata de un término que distorsiona la verdadera naturaleza del fenómeno técnico, inherente al funcionamiento de los sistemas generativos, al que pretende aludir. La selección de este concepto para referirse a la proclividad de estos sistemas a generar información incorrecta o ficticia, pero de forma convincente, captura la tendencia de los grandes desarrolladores de modelos IA de antropomorfizar sus sistemas. Se ha discutido mucho las razones que motivan esta práctica, pero hay dos que se resaltan habitualmente: por un lado, que responde a la intención de los desarrolladores de utilizar nomenclatura que apoye o conecte con sus reclamos de que sus sistemas reproducen capacidades cognitivas comparables a las de los humanos, ver Tanner Stening "What are AI Chatbots Actually Doing When They ‘ Hallucinate’? Here’s Why Experts Don’t Like the Term", Northeastern Global News (10 de noviembre de 2023), https://news.northeastern.edu/ai-chatbot-hallucinations/ (última consulta el 9 de enero de 2026), a todas luces, con el plausible fin de potenciar la reputación y la rentabilidad comercial de sus productos IA. Y, por otro lado, como parte de este esfuerzo de antropomorfización, se busca en el fondo liberar a los productores y desarrolladores de responsabilidad bajo el argumento de la capacidad autónoma de actuación de sus sistemas. Ver Kara Williams & Mayu Tobin-Miyaji, "A New Year’s Resolution for Everyone: Stop Talking about Generative AI Like It is Human", Electronic Privacy Information Center (8 de enero de 2026), https://epic.org/a-new-years-resolution-for-everyone-stop-talking-about-generative-ai-like-it-is-human/ (última consulta el 9 de enero de 2026). Esta práctica de atribuir propiedades y atributos humanos a sistemas IA afecta nuestra capacidad para contar con una noción coherente y anclada en la realidad sobre las verdaderas potencialidades y limitaciones de estas tecnologías, con importantes repercusiones sobre las políticas y las respuestas normativas a articularse para la apropiada regulación de las mismas. Al tratarse de sistemas probabilísticos, que no hacen más que calcular la probabilidad estadística de la próxima palabra (o tokens) que debe seguir a una secuencia, en respuesta a instrucciones (prompts) al efecto, los errores o fabricaciones que generan como resultado de sus procesos funcionales internos son solo eso, errores o desviaciones, fruto de su funcionamiento probabilístico, y así deberían designarse. Ver Rachel Metz, "AI Doesn’t Hallucinate. It Makes Things Up", Bloomberg (3 abril de 2023), https://www.bloomberg.com/news/newsletters/2023-04-03/chatgpt-bing-and-bard-don-t-hallucinate-they-fabricate (última consulta el 9 de enero de 2026); Ian Shen, "Stop Calling It a ‘Hallucination!’", Medium (27 de diciembre de 2025), https://medium.com/ai-ninja-mastery/stop-calling-it-a-hallucination-ecd644d775f6 (última consulta el 9 de enero de 2026).
2 Aprobadas por el Tribunal Supremo mediante la Resolución ER -2025-02 de 17 de junio de 2025, estas Reglas entraron en vigor a partir del 1 de enero de 2026, quedando derogadas en consecuencia los Cánones de Ética Profesional de 1970.
3 Este deber, contenido en la Regla 1.19 de las nuevas Reglas, reza de la siguiente manera:
Las personas que ejercen la profesión legal deberán adquirir las destrezas necesarias y mantener un conocimiento razonable sobre los desarrollos tecnológicos que puedan impactar la práctica del Derecho y la función notarial. Esto incluye el deber de utilizar la tecnología de manera diligente y con conocimiento de sus beneficios y riesgos, a fin de prestar una representación legal o ejercer la función notarial de manera competente y efectiva.
Esta obligación de contar con las destrezas y el conocimiento razonable sobre tecnologías relevantes a la práctica legal se extiende en concreto a la inteligencia artificial, a la cual la regla expresamente se refiere en su comentario [7]
4 Tara S. Emory and Maura R. Grossman, "The Next Generation of AI: Here Comes the Agents!", The National Law Review (30 de diciembre de 2024).
5 Íd.
6 Íd.
7 Íd.
8 Íd.
9 Íd.
10 Íd.
11 Íd.
12 Prueba de la creciente importancia de la IA agéntica para el Derecho lo es el hecho de que ya existen herramientas de este tipo en el mercado especialmente diseñadas y orientadas al sector jurídico.