» Ir al portal nuevo de Microjuris    OK

Inteligencia artificial y descubrimiento de prueba: una alerta para la práctica en Puerto Rico

09 de abril de 2026
COMPARTIR

Las opiniones expresadas en este artículo son únicamente del(a) autor(a) y no reflejan las opiniones y creencias de Microjuris o sus afiliados.

Por el Lcdo. Manuel A. Quilichini

Cada día más abogados y abogadas incorporan la inteligencia artificial en sus labores cotidianas para preparar mociones, revisar contratos, investigar jurisprudencia. Pero usarla mal en el contexto de un litigio puede tener consecuencias que pocos anticipan.

Imagínate a un abogado litigante que recibe una cantidad enorme de documentos como parte del descubrimiento de prueba en un caso. Trabaja solo, no tiene tiempo ni presupuesto para contratar ayuda. Pero tiene un arma secreta: ¡¡¡una suscripción a ChatGPT!!! Sube el descubrimiento completo, le pide al sistema que lo analice, y en minutos tiene resúmenes, temas clave y hasta una línea de argumentos. Orgulloso del resultado, ya se siente listo para el juicio.

Lo que no sabe o no pensó en ese momento es que pudiese estar violando normas éticas y de privacidad en el proceso, según un caso reciente ocurrido en un tribunal federal en Kansas.

¿Qué pasó en Kansas?

En Jeffries v. Harcros, Caso Núm. 25-2352 (D. Kan. 2025–2026), un grupo de residentes demandó a varias empresas químicas alegando que las emisiones tóxicas de sus plantas les habían causado daños graves. El caso generó un descubrimiento masivo, por lo que los abogados de los demandantes anunciaron que usarían herramientas de IA generativa para procesar todos los documentos producidos. Los demandados reaccionaron de inmediato: solicitaron una orden protectora bajo la Regla 26(c) federal para prohibir ese uso. El argumento fue directo: las herramientas de IA "abiertas" no garantizan la confidencialidad de los datos que reciben, pueden incorporarlos a sus modelos de manera irreversible, y su uso masivo podría violar leyes de privacidad estatales, federales e internacionales.

El tribunal les dio la razón. Y no se quedó a medias: prohibió el uso de herramientas de IA abiertas para procesar toda la información producida en descubrimiento, no solo la marcada como confidencial, sino absolutamente todo. Además, ordenó que cualquier herramienta que las partes quisieran usar debía identificarse con detalle, operar en un ambiente seguro, no entrenar modelos con los datos, y garantizar su eliminación al concluir el litigio. En la práctica, eso significa licencias empresariales o servidores privados, alternativas mucho más costosas que la suscripción mensual que usa la mayoría.

¿Puede pasar esto en Puerto Rico?

La pregunta obligada es si algo similar puede ocurrir aquí. La respuesta corta es: probablemente sí, aunque el camino jurídico es más difícil.

La Regla 23.2 de Procedimiento Civil de Puerto Rico es nuestra contraparte a la Regla 26(c) federal. Permite que un tribunal emita, por justa causa, órdenes para proteger a una parte contra hostigamiento, perturbación u opresiones, y para evitar la divulgación de información confidencial. El problema es que Jeffries no trata sobre proteger información confidencial contra divulgación directa. Trata sobre el uso de un instrumento tecnológico para procesar información ya producida, incluyendo aquella que no está marcada como confidencial. Leída estrictamente, la Regla 23.2 no da cobijo fácil a eso.

Pero hay rutas alternativas. Un tribunal podría invocar la Sección 8 del Artículo II de nuestra Constitución —el derecho a la intimidad— para argumentar que cargar datos de descubrimiento a sistemas de IA abiertos puede afectar la privacidad de terceros mencionados en esos documentos. De otro lado, se podría argumentar que la información general no goza de una expectativa razonable de privacidad y, por ende, no puede ser impedimento para cargarla a uno de estos sistemas. No es fácil predecir cómo se resolvería esta controversia, pero debemos estar preparados para ella porque es cuestión de tiempo que esto surja en nuestros procesos. Pero más allá de lo que resuelva un tribunal, hay riesgos que ya existen hoy en tu práctica.

Tres riesgos que no puedes ignorar

No necesitas estar en medio de un litigio federal en Kansas para estar expuesto. Estos riesgos aplican hoy, en cualquier caso, en cualquier foro.

  1. Violar una orden protectora sin saberlo – Si en tu caso existe una orden protectora, algo común cuando hay información médica, comercial o personal involucrada, y cargas esos documentos a una IA abierta, puedes estar violando la orden. La información pasa por servidores de terceros, puede ser revisada por empleados del proveedor, y en herramientas gratuitas puede incorporarse al modelo de entrenamiento. Todo eso equivale a divulgación. Lo que hace único a Jeffries es que el tribunal fue más lejos y prohibió cargar incluso la información no confidencial, una medida inusual pero plausible bajo nuestro ordenamiento.
  2. La pérdida irrecuperable del privilegio – A diferencia de un correo enviado por error donde puedes reclamar bajo la doctrina de divulgación inadvertida, la información que cargas a una IA abierta no se puede borrar ni eliminar. El sistema puede haberla procesado o almacenado en servidores accesibles a terceros. Incluso si configuraste la herramienta para no usar tus datos en entrenamiento, eso no elimina el riesgo de acceso no autorizado.
  3. La responsabilidad ética – Este es el riesgo que no requiere una orden protectora ni un litigio activo para existir. La Regla 1.6 te exige esfuerzos razonables para evitar la divulgación inadvertida de información del cliente. La Regla 1.19 sobre competencia tecnológica te obliga a considerar cómo proteges la información que introduces en herramientas tecnológicas y a tomar medidas activas para evitar accesos no autorizados. "No sabía cómo funcionaba la herramienta" no es una defensa ética viable.

¿Qué hacer a partir de ahora?

La buena noticia es que el problema tiene solución, y no requiere abandonar la IA. Requiere usarla con más cuidado.

Primero, aprende a distinguir entre herramienta abierta y herramienta cerrada. Las herramientas abiertas usualmente son las versiones gratuitas, sin protección alguna para los datos usados. Una herramienta es "cerrada" cuando tienes un acuerdo contractual con el proveedor que garantiza que tus datos no se usarán para entrenar el modelo, no serán accesibles a terceros, y pueden ser eliminados a tu solicitud. Debes recordar que el hecho de que pagues por la herramienta no quiere decir que no comparta datos; debes reconfigurarla para que específicamente no lo haga.

Segundo, lee las órdenes protectoras con ojos nuevos. Cada vez que recibas o negocies una, pregunta explícitamente si incluye o debe incluir lenguaje sobre el uso de IA. Si produces documentos, considera proponer lenguaje restrictivo. Si los recibes, entiende que el otro lado puede objetar el uso de tu herramienta favorita.

Tercero, documenta las herramientas que usas. En anticipación a posibles disputas, un registro de qué herramientas utilizas, en qué casos, y con qué configuración de privacidad, puede ser la diferencia entre demostrar diligencia y tener que explicar un descuido.

La IA llegó para quedarse en la práctica del derecho, y usarla bien es una ventaja competitiva real. Pero usarla bien exige el mismo rigor que aplicamos a cualquier otra decisión estratégica del caso. El caso de Kansas no es una curiosidad académica, sino una advertencia de lo que está por venir. Los abogados y abogadas que conozcan bien las herramientas estarán mejor posicionados cuando un tribunal puertorriqueño enfrente esta controversia.

Las columnas deben enviarse a mad@corp.microjuris.com y deben ser de 600-800 palabras. 

 

Powered by Microjuris.com