» Ir al portal nuevo de Microjuris OK
Por el Lcdo. Eliseo Roques-Arroyo
Profesor de Inteligencia Artificial y Derecho, Facultad de Derecho de la Universidad Interamericana de Puerto Rico y socio admintrador de EDGE Legal LLC
El 20 de marzo de 2026, la Casa Blanca presentó un documento de recomendaciones legislativas sobre inteligencia artificial dirigido al Congreso de los Estados Unidos ("National Policy Framework for Artificial Intelligence"). No es ley ni reglamento, pero sí es este documento de cuatro páginas en el que se plasma la hoja de ruta oficial de cómo la Rama Ejecutiva entiende que debe organizarse el marco federal de la IA para la próxima década.
La apuesta no es tímida: se propone un modelo "light-touch", proinnovación y, sobre todo, con énfasis en la preeminencia ("preemption") del derecho federal sobre leyes estatales y territoriales en materia de IA. Con ello, la pregunta tradicional: "¿regular o no regular la IA?", queda superada. La verdadera discusión pasa a ser otra: qué le toca legislar expresamente al Congreso, qué se deja al derecho general vigente (tribunales y agencias públicas o reguladores) y qué espacio queda, realmente, para estados y territorios, como Puerto Rico.
Para la comunidad jurídica puertorriqueña, esto no es un debate abstracto. El blueprint fija de antemano los contornos del tablero normativo en el que tendremos que movernos: en qué podemos legislar, dónde tendremos que acomodarnos al esquema federal y en qué áreas será previsible un choque —y eventual litigio— entre iniciativas locales y el nuevo "rulebook" nacional.
Uno de los ejes más visibles del documento es la protección de menores. La Casa Blanca recomienda que el Congreso imponga mecanismos de verificación de edad comercialmente razonables y respetuosos de la privacidad, exija funciones técnicas para mitigar riesgos de explotación sexual y autolesión, y reafirme que las protecciones de privacidad infantil ya existentes aplican plenamente a sistemas de IA, incluyendo límites al uso de datos de menores para entrenamiento y publicidad dirigida.
Junto con esas obligaciones, el blueprint lanza una advertencia: desalienta estándares de contenido vagos y esquemas de responsabilidad tan abiertos que incentiven litigación masiva e incierta. La idea es trazar una línea entre proteger a la niñez y abrir la puerta a demandas indiscriminadas que puedan sofocar la innovación sin mejorar significativamente la seguridad.
Un detalle importante, visto desde Puerto Rico, es que el documento insiste en que la "ocupación de campo" federal no debe eliminar la capacidad de estados y territorios de aplicar sus leyes de carácter general para proteger a menores, incluyendo la persecución de material de abuso sexual infantil generado por IA. Ahí se perfila un patrón que se repetirá: el Congreso buscaría ocupar el terreno de la "regulación de IA" como tal, pero sin derogar los police powers tradicionales de las jurisdicciones estatales.
Otro giro significativo es que la IA deja de presentarse solo como tema de datos y algoritmos, y se discute abiertamente como infraestructura crítica en energía. La premisa es sencilla, pero determinante: grandes modelos y centros de datos implican cargas nuevas sobre sistemas eléctricos que, como sabemos en Puerto Rico, enfrentarían sus propios retos.
El Framework incorpora un compromiso de protección a los abonados: la expansión de centros de datos no debe traducirse en aumentos de tarifa para los consumidores residenciales. Para lograrlo, se propone exigir que los grandes usuarios de IA asuman obligaciones concretas: construir, traer o comprar nueva capacidad de generación, financiar mejoras en transmisión y distribución, negociar tarifas diferenciadas, pagar por capacidad reservada, aunque no consuman toda la energía, invertir en la fuerza laboral local y contribuir a la resiliencia del sistema, incluyendo generación de respaldo en escenarios de escasez.
Para nuestra realidad, este enfoque es particularmente revelador. Hablar de IA, en clave de política pública, deja de ser exclusivamente hablar de privacidad, sesgo algorítmico o propiedad intelectual. También es hablar de permisos, planificación de infraestructura, mezcla de generación, estructura tarifaria y, en última instancia, de cómo se reparten los costos de la transformación digital en un sistema eléctrico vulnerable y frágil.
En propiedad intelectual, la Casa Blanca toma una postura que no zanja, pero orienta la discusión. El documento recoge la visión de que el entrenamiento de modelos con obras protegidas no constituye, por sí mismo, una violación automática del copyright vigente. Sin embargo, reconoce la controversia y recomienda que el Congreso no legisle para fijar por adelantado el desenlace de los casos sobre fair use que hoy se ventilan en tribunales federales.
En paralelo, se abre la puerta a explorar esquemas de licenciamiento voluntario o colectivo, con resguardos frente a preocupaciones antimonopolio, pero sin convertir el licenciamiento obligatorio en mandato legal general. La tensión entre la industria del contenido y los desarrolladores de modelos, por tanto, se mantiene en el ámbito judicial y contractual, no en el legislativo.
Donde sí se reclama legislación federal nueva es en el terreno de las réplicas digitales. El framework propone un marco uniforme que prohíba el uso comercial no autorizado de la voz, imagen o atributos identificables de una persona mediante IA, con excepciones específicas para parodia, sátira, periodismo y otras formas de expresión protegida. Para una jurisdicción como Puerto Rico, con un ecosistema cultural y mediático vibrante, pero expuesto a mercados externos, esto adelanta un campo de litigio y de negociación contractual que irá mucho más allá de las celebridades: profesionales, influencers, figuras públicas locales y cualquier persona cuya imagen pueda tener valor comercial.
El reto será calibrar ese marco para evitar que un derecho legítimo sobre la propia imagen, ya legislado en Puerto Rico, se convierta, en la práctica, en una herramienta para socavar la crítica o el escrutinio público.
El blueprint también entra de lleno en el debate sobre la relación entre Estado, plataformas y libertad de expresión. La Casa Blanca recomienda prohibir la coerción gubernamental dirigida a plataformas y proveedores para moderar contenido por motivaciones ideológicas o partidistas. Se trata de llevar el problema del "jawboning", ese empuje informal de agencias y funcionarios para que se baje contenido, al plano de la IA: no solo qué se elimina de las redes, sino qué se entrena, qué se prioriza y qué se oculta en modelos generativos y sistemas de recomendación.
Además, el documento impulsa la creación de vías efectivas para que las personas puedan buscar remedios frente a acciones federales que censuren o influyan en la expresión lícita mediada por IA. Para la práctica contenciosa en Puerto Rico, esto abre un escenario interesante: litigios donde la conducta cuestionada no será exclusiva de la plataforma, sino también del Gobierno federal y eventualmente local, en la manera en que intenta "gestionar" el entorno informativo digital.
En materia regulatoria, el mensaje es que no habrá, por ahora, una "superagencia federal de IA". La propuesta es mantener el protagonismo de los reguladores sectoriales: financiero, salud, transporte, entre otros, y complementarlos con herramientas de fomento: regulatory sandboxes para probar innovaciones bajo supervisión, mayor acceso de la industria a bases de datos federales preparadas para IA y estándares técnicos desarrollados por la propia industria.
En el plano laboral y educativo, el framework subraya la necesidad de integrar la IA en la formación y el adiestramiento: desde la escuela hasta programas de reconversión profesional. Apuesta también por analizar el impacto de la IA a nivel de tareas específicas, no solo de ocupaciones, reconociendo que no se trata tanto de "sustituir profesiones" como de reconfigurar funciones dentro de ellas.
Para la profesión jurídica en Puerto Rico, la consecuencia es directa. La alfabetización en IA deja de ser un accesorio para "techies" y pasa a formar parte del estándar de diligencia razonable, especialmente cuando se utilicen estas herramientas en la práctica. El blueprint federal, aunque no hable específicamente de abogacía, refuerza el mensaje que ya asoma en opiniones disciplinarias y en la discusión ética local: usar IA sin entenderla deja de ser neutral y se vuelve potencialmente negligente.
El núcleo estructural del documento es el preemption u ocupar el campo. La Casa Blanca le pide al Congreso que adopte un marco federal que desplace leyes estatales y territoriales consideradas onerosas o incompatibles con una visión nacional de la IA. La justificación descansa en la Cláusula de Comercio y en la idea de que el "desarrollo de IA" es un fenómeno inherentemente interestatal, con implicaciones de seguridad nacional y política exterior.
Ahora bien, esa preeminencia reconoce espacios donde los estados y territorios retienen protagonismo claro: aplicación de leyes de carácter general (como protección de menores, fraude y consumo), regulación de zonificación y uso de suelo, y regulación del uso de IA por el propio estado (contratación pública, servicios, delegaciones).
El mensaje para Puerto Rico es contundente: el margen para legislar directamente sobre "desarrollo" de modelos de IA será estrecho si se aprueba una ley federal en esa dirección, pero el margen para regular cómo el gobierno local y los entes regulados utilizan IA y cómo se protege al ciudadano frente a ese uso seguirá siendo significativo. He aquí donde radica nuestra mayor oportunidad para encaminar una discusión seria que encamine legislación local hacia una carta de derechos ante la era de la IA.
El litigio futuro no girará sobre si existe preeminencia, sino sobre la línea divisoria: qué se considera realmente "regular IA" en la manera en que ocuparía el Congreso y qué entra dentro de la protección al consumidor, la responsabilidad civil general o las police powers locales. Ahí se dilucidarán, en los tribunales, muchas de las batallas más interesantes de la próxima década.
Mientras Estados Unidos avanza este modelo de desplazamiento y "light-touch", la Unión Europea ("UE") ya opera con el EU Artificial Intelligence Act ("AIA"), un marco extraterritorial que clasifica sistemas de IA por nivel de riesgo y les asigna obligaciones detalladas de documentación, trazabilidad, supervisión humana y evaluación de conformidad. Para empresas puertorriqueñas con clientes, operaciones o impacto en la UE —banca, seguros, salud, tecnología—, la realidad será de cumplimiento dual: un "rulebook" federal orientado a competitividad y un régimen europeo exigente en términos de pruebas de cumplimiento.
Esta doble exposición no es académica. Se traducirá en contratos que incorporan referencias al AIA, auditorías internas y externas de sistemas automatizados, exigencias de transparencia en modelos de alto riesgo y expectativas mucho más altas sobre la capacidad de las organizaciones de explicar cómo y por qué sus sistemas toman decisiones.
En ese contexto, la abogacía puertorriqueña tiene una oportunidad y una responsabilidad clara. No se trata solo de "estar al día" con la IA como herramienta, sino de asumir un rol de arquitectos de gobernanza: traducir exigencias técnicas en obligaciones jurídicas, diseñar estructuras de cumplimiento razonables, anticipar conflictos de preeminencia y, llegado el momento, litigar casos donde la IA sea el componente central de la controversia, no un detalle accesorio.
El blueprint federal de marzo de 2026 no pretende resolver, de una vez, todas las preguntas de política pública sobre IA. Sí fija, sin embargo, el marco dentro del cual se van a hacer esas preguntas, tanto en Washington como en San Juan. Para Puerto Rico, eso significa aceptar que parte del tablero se va a definir desde el Congreso —la preeminencia, el alcance de la Cláusula de Comercio, el tratamiento del "desarrollo de IA"— y que la otra parte, igual de importante, se definirá aquí: cómo usamos IA en el gobierno, cómo protegemos a consumidores y personas y sectores vulnerables, y cómo nos preparamos para responder a exigencias de cumplimiento que vendrán de Estados Unidos y de la Unión Europea.
La tecnología no rebaja el estándar ético ni el deber de supervisión profesional. Al contrario: lo eleva. En un entorno donde modelos generan textos y decisiones altamente persuasivas, la exigencia jurídica vuelve a lo esencial: entender las herramientas, exigir evidencia y trazabilidad, diseñar controles efectivos y asumir responsabilidad humana por las decisiones que tomamos apoyados en IA. Esa es, en última instancia, la infraestructura de confianza que la práctica jurídica puertorriqueña va a necesitar si quiere navegar con dignidad y eficacia el "framework" de IA que se está escribiendo hoy en la Casa Blanca.