» Ir al portal nuevo de Microjuris OK
Las opiniones expresadas en este artículo son únicamente del(a) autor(a) y no reflejan las opiniones y creencias de Microjuris o sus afiliados.
Por el Lcdo. Manuel A. Quilichini
Cada día más abogados y abogadas incorporan la inteligencia artificial en sus labores cotidianas para preparar mociones, revisar contratos, investigar jurisprudencia. Pero usarla mal en el contexto de un litigio puede tener consecuencias que pocos anticipan.
Imagínate a un abogado litigante que recibe una cantidad enorme de documentos como parte del descubrimiento de prueba en un caso. Trabaja solo, no tiene tiempo ni presupuesto para contratar ayuda. Pero tiene un arma secreta: ¡¡¡una suscripción a ChatGPT!!! Sube el descubrimiento completo, le pide al sistema que lo analice, y en minutos tiene resúmenes, temas clave y hasta una línea de argumentos. Orgulloso del resultado, ya se siente listo para el juicio.
Lo que no sabe o no pensó en ese momento es que pudiese estar violando normas éticas y de privacidad en el proceso, según un caso reciente ocurrido en un tribunal federal en Kansas.
En Jeffries v. Harcros, Caso Núm. 25-2352 (D. Kan. 2025–2026), un grupo de residentes demandó a varias empresas químicas alegando que las emisiones tóxicas de sus plantas les habían causado daños graves. El caso generó un descubrimiento masivo, por lo que los abogados de los demandantes anunciaron que usarían herramientas de IA generativa para procesar todos los documentos producidos. Los demandados reaccionaron de inmediato: solicitaron una orden protectora bajo la Regla 26(c) federal para prohibir ese uso. El argumento fue directo: las herramientas de IA "abiertas" no garantizan la confidencialidad de los datos que reciben, pueden incorporarlos a sus modelos de manera irreversible, y su uso masivo podría violar leyes de privacidad estatales, federales e internacionales.
El tribunal les dio la razón. Y no se quedó a medias: prohibió el uso de herramientas de IA abiertas para procesar toda la información producida en descubrimiento, no solo la marcada como confidencial, sino absolutamente todo. Además, ordenó que cualquier herramienta que las partes quisieran usar debía identificarse con detalle, operar en un ambiente seguro, no entrenar modelos con los datos, y garantizar su eliminación al concluir el litigio. En la práctica, eso significa licencias empresariales o servidores privados, alternativas mucho más costosas que la suscripción mensual que usa la mayoría.
La pregunta obligada es si algo similar puede ocurrir aquí. La respuesta corta es: probablemente sí, aunque el camino jurídico es más difícil.
La Regla 23.2 de Procedimiento Civil de Puerto Rico es nuestra contraparte a la Regla 26(c) federal. Permite que un tribunal emita, por justa causa, órdenes para proteger a una parte contra hostigamiento, perturbación u opresiones, y para evitar la divulgación de información confidencial. El problema es que Jeffries no trata sobre proteger información confidencial contra divulgación directa. Trata sobre el uso de un instrumento tecnológico para procesar información ya producida, incluyendo aquella que no está marcada como confidencial. Leída estrictamente, la Regla 23.2 no da cobijo fácil a eso.
Pero hay rutas alternativas. Un tribunal podría invocar la Sección 8 del Artículo II de nuestra Constitución —el derecho a la intimidad— para argumentar que cargar datos de descubrimiento a sistemas de IA abiertos puede afectar la privacidad de terceros mencionados en esos documentos. De otro lado, se podría argumentar que la información general no goza de una expectativa razonable de privacidad y, por ende, no puede ser impedimento para cargarla a uno de estos sistemas. No es fácil predecir cómo se resolvería esta controversia, pero debemos estar preparados para ella porque es cuestión de tiempo que esto surja en nuestros procesos. Pero más allá de lo que resuelva un tribunal, hay riesgos que ya existen hoy en tu práctica.
No necesitas estar en medio de un litigio federal en Kansas para estar expuesto. Estos riesgos aplican hoy, en cualquier caso, en cualquier foro.
La buena noticia es que el problema tiene solución, y no requiere abandonar la IA. Requiere usarla con más cuidado.
Primero, aprende a distinguir entre herramienta abierta y herramienta cerrada. Las herramientas abiertas usualmente son las versiones gratuitas, sin protección alguna para los datos usados. Una herramienta es "cerrada" cuando tienes un acuerdo contractual con el proveedor que garantiza que tus datos no se usarán para entrenar el modelo, no serán accesibles a terceros, y pueden ser eliminados a tu solicitud. Debes recordar que el hecho de que pagues por la herramienta no quiere decir que no comparta datos; debes reconfigurarla para que específicamente no lo haga.
Segundo, lee las órdenes protectoras con ojos nuevos. Cada vez que recibas o negocies una, pregunta explícitamente si incluye o debe incluir lenguaje sobre el uso de IA. Si produces documentos, considera proponer lenguaje restrictivo. Si los recibes, entiende que el otro lado puede objetar el uso de tu herramienta favorita.
Tercero, documenta las herramientas que usas. En anticipación a posibles disputas, un registro de qué herramientas utilizas, en qué casos, y con qué configuración de privacidad, puede ser la diferencia entre demostrar diligencia y tener que explicar un descuido.
La IA llegó para quedarse en la práctica del derecho, y usarla bien es una ventaja competitiva real. Pero usarla bien exige el mismo rigor que aplicamos a cualquier otra decisión estratégica del caso. El caso de Kansas no es una curiosidad académica, sino una advertencia de lo que está por venir. Los abogados y abogadas que conozcan bien las herramientas estarán mejor posicionados cuando un tribunal puertorriqueño enfrente esta controversia.
Las columnas deben enviarse a mad@corp.microjuris.com y deben ser de 600-800 palabras.