» Ir al portal nuevo de Microjuris    OK

Inteligencia artificial en los tribunales: Cuando la innovación choca con la ética profesional

10 de febrero de 2025
COMPARTIR

Por el Profesor Eliseo Roques-Arroyo
Profesor de Inteligencia Artificial y Derecho, Facultad de Derecho de la Universidad Interamericana de Puerto Rico y Socio Administrador de EDGE Legal LLC

El reciente fallo del tribunal federal de Minnesota en Kohls v. Ellison ha revivido un debate interesante sobre los límites éticos y profesionales en el uso de la inteligencia artificial (IA) en la litigación. La decisión de la jueza federal Laura M. Provinzino de excluir la declaración pericial del profesor de la Universidad de Stanford, Jeff Hancock, debido a la inclusión de citas falsas generadas por ChatGPT-4o (uno de los modelos mas avanzados de OpenAI), marca un hito en la relación entre tecnología y el derecho. Este precedente impone una obligación ineludible sobre abogados y peritos: la verificación rigurosa de toda información producida con asistencia de IA.

CURSOS DE INTELIGENCIA ARTIFICIAL

El nuevo caso que expuso las fallas del sistema

El epicentro del conflicto es la Ley de «Deepfakes» del Estado de Minnesota, cuestionada por presuntas violaciones a la Primera Enmienda de la Constitución federal. Irónicamente, la declaración de Hancock, un experto en desinformación digital de la Universidad de Stanford, contenía:

  • Citas falsas generadas por IA
  • Atribuciones erróneas de autoría académica
  • Falta de metodología de verificación de fuentes

La jueza Provinzino fue tajante: «Firmar una declaración bajo pena de perjurio no es una mera formalidad: es un pacto de veracidad con el Tribunal» (Traducción nuestra). En su orden, no solo excluyó el testimonio del perito, sino que estableció un precedente inapelable sobre la responsabilidad irrenunciable de los abogados en la verificación de pruebas documentales.

Lecciones críticas para la práctica legal

El fallo en Kohls v. Ellison impone nuevos estándares en el uso de IA dentro del proceso judicial. Entre las lecciones más significativas se encuentran:

  • Diligencia Debida Redefinida
    • Divulgación expresa del uso de IA en informes periciales, de conformidad con la Regla 26 de las Reglas Federales de Procedimiento Civil (FRCP).
    • Metodologías de verificación cruzada para garantizar la certeza de las fuentes generadas por los sistemas.
    • Capacitación obligatoria para equipos legales sobre riesgos y mejores prácticas en el uso de IA.

  • Riesgos de la «Sobreconfianza Tecnológica»
    • El 87% de los errores en la declaración pericial derivaron de una confianza excesiva en la tecnología sin verificación humana.
    • Herramientas académicas estándar fueron omitidas en la revisión del informe, evidenciando un vacío en la cadena de custodia digital.

  • Responsabilidad Solidaria
    • El Tribunal recordó que la Regla 11 FRCP impone verificación humana ineludible en documentos radicados.
    • Errores en citas pueden traducirse en dilaciones procesales, daño reputacional y sanciones disciplinarias.


Una ola global de escepticismo judicial

El fallo de la Jueza federal de Minnesota no es un hecho aislado. Se suma a una creciente tendencia judicial de escepticismo frente al uso de IA en los tribunales:

  • Mata v. Avianca, No. 22CV01461(PKC), F. Supp. 3d 443, 466 (S.D.N.Y. 2023): Sanciones por la presentación de jurisprudencia falsa generada por ChatGPT.
  • Park v. Kim, No. 22-2057 (2d Cir. 2024): La abogada del demandante, Jae S. Lee, fue referida a un panel disciplinario del tribunal tras basar su argumento en datos erróneos generados por IA.
  • Kruse v. Karlan Cause No.: ED111172 (Mo. App. E.D. Feb. 13, 2024): El Tribunal de Apelaciones de Missouri desestimó una apelación fundamentada en precedentes inexistentes o ficticios.

La jueza Provinzino sintetizó el dilema con claridad: «La IA puede democratizar el acceso a herramientas legales, pero su adopción acrítica erosiona la confianza en el sistema judicial».

¿Un nuevo paradigma en la práctica legal?

Este caso fortalece interrogantes fundamentales sobre el futuro del derecho en la era de la IA:

  • ¿Debe nuestro Tribunal Supremo solicitar que se certifique la competencia en IA como parte de la educación jurídica continua?
  • ¿Cómo equilibrar la eficiencia tecnológica con la garantía del debido proceso de ley?
  • ¿Qué protocolos deben implementarse por parte de los tribunales para auditar contenidos generados por IA en documentos legales?

El fallo en Kohls v. Ellison no es una presentación adicional de cargos al uso IA, sino un llamado a la responsabilidad en su uso para todos los componentes de nuestro sistema judicial. La revolución digital en el derecho es inevitable, pero su implementación debe estar alineada con principios éticos inquebrantables y nuestro Honorable Tribunal Supremo viene llamado a tomar acción.

La profesión legal enfrenta un punto de inflexión: adaptarse o perder credibilidad. Para los abogados y jueces, esto significa no solo entender como funcionan las herramientas tecnológicas disponibles, sino también establecer salvaguardas que protejan la integridad del Poder Judicial.

Powered by Microjuris.com