» Ir al portal nuevo de Microjuris    OK

COLUMNA — La inteligencia artificial y la profesión jurídica en Puerto Rico

13 de febrero de 2023
COMPARTIR

Por el Dr. Rolando Emmanuelli Jiménez [1]

El uso de la Inteligencia Artificial (IA) ha ido en aumento en los últimos años, con aplicaciones que van desde automóviles autónomos hasta programas de reconocimiento facial. En noviembre 2022, salió a la luz la aplicación ChatGPT,[2] que ha demostrado el adelanto vertiginoso de esta tecnología y confirma el potencial de ocasionar una ruptura en los procesos productivos y profesionales que no puede ser ignorada.

Esto sin duda afectará el derecho y sus profesionales.

El ChatGPT es un prototipo de chatbot [3] de inteligencia artificial desarrollado en 2022 por OpenAI que, entre otras cosas, responde en forma sofisticada, preguntas de los usuarios escritas en lenguaje ordinario. El sistema acepta preguntas que le sometan, incluso, abogados o abogadas para la preparación de documentos y argumentos legales. Todavía son un poco rudimentarios, pero demuestran el potencial de que eventualmente el sistema responda de manera completa y profunda como para tener la calidad de un documento jurídico preparado por un abogada o abogado competente.

El ChatGPT actual tiene limitaciones en cuanto a los datos que tiene disponible y, obviamente, tiene sesgos que provienen de las reglas de programación de sus creadores. No obstante, puede contestar preguntas técnicas, programar, corregir escritos, hacer hojas de cómputo, resumir escritos complejos, proveer referencias, escribir ensayos y poemas, etcétera.

El imaginario popular y muchas personas influyentes, entre ellos, Elon Musk,[4] Stephen Hawking [5] y Bill Gates [6], han comentado y alertado sobre los riesgos terribles de esta tecnología.[7] Algunos han profetizado que eventualmente la IA tomará control de muchas de las principales operaciones y decisiones importantes, al grado de que se pierdan las libertades fundamentales y el libre albedrío.[8]

Las advertencias fundadas sobre consecuencias mayores para la humanidad por el mal uso de la IA no ocasionarán que se prohíba, pues esta tecnología es muy poderosa y con multiplicidad de usos positivos para la humanidad. No obstante, de seguro se aprobará reglamentación que podría ser compleja. Por tanto, es indispensable que los profesionales del derecho estén al tanto de sus uso y consecuencias para poder adaptarse lo ante posible. Tomen nota que algunos de los vaticinadores más entusiastas han pronosticado el fin de la profesión de abogado o abogada como la conocemos hoy en día.[9] Eso no va a ocurrir por algún tiempo, pero los cambios a corto y mediano plazo pueden ser significativos.

Además de los cambios previsibles sobre la forma en que operan los abogados y abogadas, la IA creará toda una serie de controversias noveles bajo el ordenamiento legal vigente y bajo las nuevas leyes y reglamentaciones que se impongan para regular el uso de la IA.

En términos de responsabilidad, el uso de la IA puede generar cuestiones legales interesantes bajo el derecho civil puertorriqueño. Por ejemplo, si un automóvil o robot autónomo causara un accidente, ¿quién sería responsable? ¿El fabricante del automóvil, el desarrollador de software o el conductor que descansó en la pericia del sistema autónomo? ¿Cuán autónomos serán esos sistemas? ¿Serán entidades sintientes y reconocidas como personas? ¿Qué ocurre cuando se toman decisiones descansando en los resultados de una interacción con un sistema de IA y se ocasionan daños y perjuicios?

Por ejemplo, pensemos en el médico que diagnostica y receta o el abogado o abogada que ofrece un consejo a base de esa tecnología. ¿Bastará para liberar de responsabilidad al desarrollador del sistema de IA que el acuerdo de licenciamiento para su uso diga que no responden por daños por el uso que le den a la tecnología? ¿Aplicará la responsabilidad estricta o sin culpa de los productos defectuosos? ¿La autonomía o la personalidad jurídica de los sistemas de IA romperá la cadena de causalidad? ¿Responderán todos los participantes bajo una teoría laxa de causalidad y responsabilidad?

Los sistemas basados en IA también pueden ser vulnerables a los ataques cibernéticos, lo que plantea la cuestión de quién debe ser considerado responsable de los daños resultantes. La intimidad es otro problema legal importante planteado por la IA. Los sistemas de IA pueden recopilar y procesar grandes cantidades de datos personales, lo que plantea preocupaciones sobre el posible uso indebido de estos datos.

La IA también se puede utilizar para tomar decisiones en los procesos rutinarios de los negocios y el gobierno. Estos sistemas se utilizan para tomar decisiones sobre crédito, empleo y otras áreas. Sin embargo, los sistemas de decisión automatizados pueden ser propensos a sesgos y errores, lo que puede conducir a resultados injustos. Los sistemas de IA pueden estar prejuiciados, reflejando los valores y sesgos discriminatorios de sus creadores. Por ejemplo, se ha descubierto que la tecnología de reconocimiento facial es menos precisa para las personas de color, lo que genera dudas sobre la equidad y la discriminación.

Igual pasa con los sistemas de autoenfoque de las cámaras fotográficas sofisticadas. Con el propósito de no ser discriminatorios, los sistemas de IA deben diseñarse teniendo en cuenta principios éticos, como la equidad, la transparencia y la responsabilidad. El ordenamiento debe fortalecerse o aclararse para evitar que estas tecnologías marginen a personas por criterios prohibidos.

Para abordar estas preguntas, se necesitan marcos legales que consideren a los diferentes actores involucrados en el desarrollo y uso de los sistemas de IA, junto a sus consecuencias y remedios.

En conclusión, a medida que la IA se generaliza y se hace más sofisticada y poderosa, es importante considerar las implicaciones legales de su uso. Se necesitan marcos legales para garantizar que la IA se utilice de manera responsable y que se protejan los derechos de las personas. Además, se deben desarrollar estándares éticos para garantizar que la IA se utilice de manera coherente con los principios éticos.

¿Puede la inteligencia artificial sustituir a una abogada o abogado en el tribunal?

Pautas desde la ABA

La American Bar Association (ABA) reconoce el potencial de la IA para revolucionar la profesión legal haciéndola más eficiente y rentable. En 2019, la ABA adoptó una resolución que fomentaba el uso de la IA para «mejorar el acceso a la justicia, aumentar la eficiencia y precisión de la prestación de servicios legales y mejorar la gestión de la práctica».[10] Esta resolución abrió la puerta para el desarrollo de nuevas tecnologías basadas en IA como chatbots legales, automatización de documentos y análisis predictivo.

La ABA estableció pautas para el uso ético de la IA en el ámbito legal. Estas pautas garantizan que las tecnologías basadas en IA se utilicen de manera ética y responsable, y que no reemplacen la necesidad del juicio humano o la toma de decisiones.[11] La ABA también ha lanzado un grupo de trabajo de IA que es responsable de brindar orientación a la profesión legal sobre el uso ético y efectivo de la IA.[12] Además, la ABA emitió unos principios generales para los abogados y las abogadas que utilizan tecnologías habilitadas para IA:

  1. Los abogados y las abogadas deben comprender la tecnología que utilizan, incluidos los datos y algoritmos que emplea, para que puedan evaluar sus capacidades y limitaciones.
  2. Los abogados y las abogadas deben asegurarse de que el uso de la tecnología de IA sea coherente con sus obligaciones y responsabilidades profesionales.
  3. Los abogados y las abogadas deben tomar medidas razonables para garantizar que la tecnología de IA mantenga la confidencialidad, la seguridad y la privacidad de los clientes, adversarios y terceros.
  4. Los abogados y las abogadas deben tomar medidas razonables para garantizar que la tecnología de IA se utilice de manera precisa, confiable, segura y oportuna.
  5. Los abogados y las abogadas deben tomar medidas razonables para garantizar que la tecnología de IA se utilice de una manera que no infrinja las leyes, normas, reglamentos u obligaciones éticas aplicables.
  6. Los abogados y las abogadas deben tomar medidas razonables para garantizar que la tecnología de IA se utilice de una manera que no sustituya el juicio independiente del profesional del derecho.
  7. Los abogados y las abogadas deben tomar medidas razonables para garantizar que la tecnología de IA se utilice de una manera que no entre en conflicto con sus obligaciones profesionales ante el tribunal.[13]

Por eso todos los abogados y abogadas deben familiarizarse con esta tecnología y utilizarla con prudencia.

Mi consejo para un abogado o abogada sobre el futuro de la Inteligencia Artificial es mantenerse informada y educada sobre los últimos avances en tecnología, así como sobre las implicaciones legales que puede tener en la práctica del derecho. Debe probar la tecnología, ver sus limitaciones y ventajas.

Conéctese al ChatGPT e interróguelo sobre todo tipo de temas.

Haga las preguntas de diferente manera y pídale que exprese argumentos en contrario a sus posturas. Verá su poder y utilidad para su práctica profesional, además de reconocer los peligros que acarrea. Sin duda, los profesionales del derecho deben considerar expandir su práctica para incluir áreas como asesorar a los clientes sobre cómo usar la IA en sus negocios, o incluso representar a clientes que están creando o usando tecnología de IA.

Comprender las implicaciones potenciales de la IA ayudará a los abogados y abogadas a estar más preparados para manejar los desafíos legales que sin duda surgirán en pocos años.

………………………………………………………………………………………………………………………………………………………..

[1] Este ensayo se preparó con la ayuda de la tecnología de GPT-3 de Open AI la cual es la base para ChatGPT. Sin embargo, el autor revisó, corroboró y fundamentó todas sus aseveraciones por lo que son de su entera responsabilidad. Se divulga esta información en cumplimiento de los términos de uso de la herramienta GPT-3 de Open AI. Vea el servicio en: https://platform.openai.com/playground
[2] ChatGPT significa transferencia conversacional de agente humano con transformador generativo pre-entrenado (Conversational Human-Agent Transfer with Generative Pre-trained Transformer). El transformador pre-entrenado generativo (GPT) es un tipo de modelo de aprendizaje profundo (Deep Learning) desarrollado por OpenAI que se utiliza para el procesamiento del lenguaje natural (NLP). GPT es un modelo de lenguaje basado en transformadores que han sido entrenado previamente en un gran corpus de texto. Está diseñado para predecir la siguiente palabra u oración dada una oración de entrada. Los modelos GPT se pueden usar para tareas como traducción de idiomas, resumen de texto, respuesta a preguntas y generación de texto. Vea: https://openai.com/blog/chatgpt/
[3] Un "chatbot" es un programa que simula una conversación real con una persona, gracias a una interfaz que se construye con palabras clave y se basa y aprende de interacciones con los usuarios.
[4]"AI could become ‘an immortal dictator from which we would never escape". https://www.washingtonpost.com/news/innovations/wp/elon-musks-nightmarish-warning-ai-could-become-an-immortal-dictator-from-which-we-would-never-escape/
[5]"The development of full artificial intelligence could spell the end of the human race.» https://www.bbc.com/news/technology-30290540.
[6] "I think we should be very careful about artificial intelligence. If I were to guess like what our biggest existential threat is, it’s probably that. So we need to be very careful with the artificial intelligence." https://www.washingtonpost.com/news/the-switch/wp/bill-gates-on-dangers-of-artificial-intelligence-dont-understand-why-some-people-are-not-concerned/
[7] Las críticas vienen de numerosos sectores: 1. Críticos de la IA que plantean preocupaciones éticas y morales. 2. Defensores de la protección de datos que temen el mal uso de los datos personales. 3. Activistas de los derechos de los trabajadores de AI que están preocupados por el despido laboral. 4. Escépticos de la IA que dudan de su potencial para resolver problemas complejos. 5. Defensores de la privacidad que se preocupan por las implicaciones de la IA para las libertades civiles. 6. Grupos de derechos humanos que temen que la IA pueda conducir a la discriminación. 7. Críticos de la automatización impulsada por la IA que temen una «segunda era de las máquinas». 8. Ambientalistas preocupados por los costes energéticos de la IA. 9. Expertos en seguridad de IA que piden el desarrollo de protocolos de seguridad sólidos. 10. Investigadores que advierten sobre posibles sesgos en la toma de decisiones impulsada por IA. Véase como ejemplos: John Thornhill, Artificial intelligence: can we control it? https://www.fhi.ox.ac.uk/wp-content/uploads/FT-AI-article.pdf ; Interview with John Markoff: Does AI Surpass Humans and Take Away Jobs?, https://medium.com/syncedreview/interview-with-john-markoff-ai-surpasses-humans-and-take-away-jobs-2-47ea12c525e9 ; Thomas Wells, The Robot Economy and the Crisis of Capitalism: The Case for a Universal Basic Income, https://www.abc.net.au/religion/the-robot-economy-and-the-crisis-of-capitalism-the-case-for-a-un/10095530.
[8] Janna Anderson, Lee Rainie and Alex Luchsinger, Artificial Intelligence and the Future of Humans, https://eloncdn.blob.core.windows.net/eu3/sites/964/2020/10/AI_and_the_Future_of_Humans_12_10_18.pdf
[9] Lavin Hirani, Can AI replace us all?, https://www.barandbench.com/law-firms/view-point/can-ai-replace-us-all
[10] American Bar Association (2019).
[11] American Bar Association (2020).
[12] American Bar Association (2021).
[13] Ethical Use of Artificial Intelligence in the Practice of Law. American Bar Association (2020). Véase además, Model Ethics Rules as Applied to Artificial Intelligence: https://www.lawpracticetoday.org/article/model-ethics-rules-as-applied-to-artificial-intelligence/.

¿ChatGPT podrá sustituir la abogacía?

Powered by Microjuris.com