» Ir al portal nuevo de Microjuris OK
Las opiniones expresadas en este artículo son únicamente del(a) autor(a) y no reflejan las opiniones y creencias de Microjuris o sus afiliados.
En un mundo donde los medios digitales están en constante evolución, los llamados «deepfakes» (falsificaciones profundas de información) han surgido como uno de los desarrollos tecnológicos más alarmantes. Poco se sabe sobre cómo detectarlos o de evitar el nefasto impacto que conllevan.
Los deepfakes son videos generados por sistemas de inteligencia artificial (IA) que manipulan contenido visual y de audio para crear representaciones altamente realistas de individuos diciendo o haciendo cosas que nunca dijeron o hicieron. En el pasado estas imágenes o videos falsos eran fáciles de detectar. Sin embargo, a medida que los deepfakes se vuelven más sofisticados, éstos representan una creciente amenaza, en particular para los procesos democráticos al socavar la integridad electoral mediante la difusión de desinformación y la distorsión de la opinión pública.
Para abordar estas preocupaciones, California aprobó una ley con el objetivo de prohibir el uso de deepfakes en anuncios relacionados con las elecciones. Sin embargo, una reciente decisión judicial ha invalidado esta ley, planteando preguntas críticas sobre el equilibrio entre la libertad de expresión y la protección de la democracia.
La tecnología para crear deepfakes tiene más de 20 años, y fue en el 2017 que se le identificó con este nombre, saliendo al mercado en el 2018 la primera herramienta para generar estas imágenes falsas. Aunque los deepfakes pueden ser utilizados con fines inocentes, como en el entretenimiento o la parodia, también tienen un lado oscuro, en particular los videos de venganza pornográfica o «revenge porn», donde colocaban la cara de una persona sobre el cuerpo de una actriz o actor porno. Los resultados eran rudimentarios, detectables y costosos, pero según ha avanzado la inteligencia artificial, ahora cualquiera puede crear estas producciones falsas y en ocasiones sin costo alguno. Y cada día se hace más difícil detectar lo que es falso de lo que es verdadero.
En contextos políticos, los deepakes pueden ser usados como armas para difundir información falsa sobre candidatos, engañar a los votantes e incluso desestabilizar elecciones. A medida que los ciclos electorales se vuelven cada vez más dominados por los medios digitales, el potencial de los deepfakes para manipular la percepción pública se ha convertido en una preocupación significativa.
El primer caso reportado del uso de deepfake en el contexto político fue descubierto en enero de este año. Un consultor político organizó la creación de un mensaje de voz que fue difundido por vía telefónica a los electores demócratas de New Hampshire. En el mismo, una voz muy similar a la del presidente Biden les decía a los electores que no tenían que comparecer a las primarias demócratas del estado y que mejor votasen en noviembre. Steve Kramer, quien ideó y coordinó la falsa grabación, enfrenta una multa de $6 millones por parte de las agencias federales, y está acusado de 26 cargos criminales por intimidación de votantes y personificar falsamente a oficiales públicos. La compañía que facilitó este engaño, Lingo Telecom, acordó pagar una multa de $1 millón.
En respuesta a estos peligros, California promulgó una legislación para frenar el uso de deepfakes en campañas electorales. La Asamblea Legislativa de California aprobó el Proyecto de Ley 2839 (AB 2839) con el propósito de evitar la distribución de medios «materialmente engañosos» en la publicidad política, particularmente durante los períodos sensibles de las elecciones, o sea, desde los 120 días antes hasta 60 días después de cualquier elección en California. La ley define el concepto de materialmente engañoso como contenido que ha sido «creado o modificado digitalmente» de tal manera que una falsedad luciría auténtica a una cualquier persona razonable. Los agraviados pueden radicar acciones civiles contra los distribuidores de deepfakes.
A pesar de su fin loable, esta legislación fue recientemente impugnada en los tribunales. En el caso Kohls v. Bonta, el Tribunal de Distrito de los Estados Unidos para el Distrito Este de California emitió un fallo que invalidó la ley AB 2839. El demandante es Christopher Kohls, un "influencer" en redes sociales conocido por producir videos políticos satíricos que utilizan contenido generado por IA. Uno de sus videos fue publicado por Elon Musk y recibió sobre 100 millones de vistas. En su impugnación, Kohls argumentó que la ley violaba sus derechos bajo la Primera Enmienda de la Constitución Federal al restringir la libertad de expresión política, especialmente la sátira y la parodia, que están tradicionalmente protegidas por ley.
El juez John A. Mendez falló a favor de Kohls, otorgando una orden judicial preliminar que impide la aplicación de la AB 2839. En su decisión, el juez Mendez destacó varios puntos claves:
En su decisión, el juez Mendez citó varios precedentes legales, incluido el fallo histórico del Tribunal Supremo de Estados Unidos (TSEU) en New York Times v. Sullivan, que estableció que incluso las declaraciones falsas sobre funcionarios públicos están protegidas, a menos que se hagan con malicia real. El tribunal también hizo referencia a United States v. Alvarez, un caso en el que dicho tribunal invalidó una ley que criminalizaba las declaraciones falsas sobre honores militares, reafirmando el principio de que algunos tipos de discursos falsos siguen estando protegidos por la Primera Enmienda.
La decisión del tribunal pone de relieve la tensión persistente entre la regulación de tecnologías dañinas y la protección de la libertad de expresión, especialmente en el contexto del discurso político, que goza de amplias protecciones de ley. Si bien no cabe duda de que los deepfakes pueden causar daños reales, especialmente en el período previo a las elecciones, el fallo refleja la preocupación profunda del poder judicial por la censura por parte del gobierno. La protección de la expresión política es un pilar fundamental de la democracia, reiterado en una larga lista de casos judiciales.
Este caso ilustra los desafíos que enfrentan los legisladores al intentar abordar nuevas tecnologías como los deepfakes. Regular el contenido generado por IA implica el riesgo de invadir la libertad de expresión, especialmente cuando dicho contenido incluye parodias, sátiras o declaraciones políticas hiperbólicas que han desempeñado un papel importante en el discurso público durante mucho tiempo.
Expertos legales y organizaciones de derechos civiles han expresado diversas opiniones sobre el fallo. Algunos elogiaron la decisión como una defensa necesaria de la libertad de expresión. La Unión Americana de Libertades Civiles (ACLU, por sus siglas en inglés) emitió un comunicado apoyando el fallo, destacando que el discurso político, incluso cuando es incómodo u ofensivo, debe ser protegido para garantizar una democracia vibrante.
Sin embargo, los partidarios de la AB 2839, incluidos varios legisladores de California, expresaron su decepción. Argumentaron que los deepfakes representan una amenaza única para la integridad electoral y que la ley era un paso necesario para proteger a los votantes contra la manipulación digital. El asambleísta Mark Stone, uno de los defensores claves de la ley, afirmó: «Debemos encontrar una manera de abordar los impactos nocivos de los deepfakes respetando al mismo tiempo la libertad de expresión. Esta decisión nos retrasa, pero no cambia el hecho de que la desinformación es un peligro real y presente en nuestras elecciones».
Por su parte, las empresas tecnológicas han mantenido en gran medida una postura neutral, a pesar de que continúan enfrentando presiones para desarrollar políticas internas que limiten la propagación de desinformación y falsedades en sus plataformas.
Si bien algunos votantes se han vuelto más conscientes de la desinformación en los últimos años, la sofisticación de la tecnología de deepfake podría seguir planteando desafíos significativos. El adagio popular de "ver para creer" dará paso a un escepticismo sobre todo lo que veamos y escuchemos, dado que será prácticamente imposible distinguir entre lo real y lo artificial. Como dijo Jamie Susskind en su libro sobre la democracia digital:
Pronosticamos un aumento significativo de videos y audios artificialmente manipulados que se difundan rápidamente y minen la confianza pública en el proceso electoral, gracias a la proliferación de aplicaciones y programas asequibles y económicos. Y la difusión rápida a través de redes sociales facilitará que estas falsedades lleguen a un público global, con la posibilidad de influenciar procesos eleccionarios en cualquier parte del mundo.
La decisión del tribunal invalidando la ley deja a California con varias alternativas por delante. Podrían optar por apelar el fallo, lo que podría llevar el caso ante la Corte de Apelaciones del Noveno Circuito. A su vez esta decisión pudiese llegar al Tribunal Supremo, cuya composición conservadora presagia serios problemas para la ley.
Alternativamente, los legisladores podrían proponer un proyecto de ley revisado que equilibre mejor la protección de la libertad de expresión con la necesidad de frenar los deepfakes. Los expertos legales han sugerido que una ley más limitada, enfocada en daños específicos como la difamación o el fraude, podría resistir el escrutinio judicial.
A nivel federal, ha habido un creciente interés en regular las tecnologías de IA, incluidos los deepfakes. Un proyecto de ley similar a la de California es el «Deepfakes Accountability Act» de 2023, dirigido a campañas políticas. El «DEFIANCE Act» va dirigido a proteger a las víctimas de deepfakes. Otros proyectos federales han incluido el «Deepfake Task Force Act» y el «Deepfake Report Act».
En Puerto Rico hay al menos tres proyectos de ley sobre el uso de deepfakes en campañas políticas, pero en el actual clima político, todos estos proyectos se han quedado en un limbo legislativo.
El reciente fallo en Kohls representa un punto de inflexión en la lucha continua por regular las tecnologías emergentes mientras se preservan los principios fundamentales de la libertad de expresión. A medida que los deepfakes continúan evolucionando, sin duda desempeñarán un papel más importante en la configuración de la percepción pública y el discurso político. La decisión del tribunal subraya la dificultad de legislar en este ámbito, donde la línea entre la desinformación dañina y el discurso político protegido se vuelve cada vez más borrosa.
Es un desafío el balancear el derecho a la libre expresión, esbozado hace más de 230 años, con las tecnologías emergentes que permiten crear todo tipo de imagen, sonido y video falso. Esbozar un derecho casi absoluto a la libre expresión, como sugerido en Kohl’s, constituye un serio riesgo a nuestro sistema democrático de elecciones. A medida que los legisladores, tribunales y empresas tecnológicas enfrentan estos desafíos, surge una gran pregunta: ¿Pueden las democracias regular de manera efectiva las nuevas tecnologías de los medios sin comprometer las libertades sobre las que se construyen? La respuesta a esta pregunta moldeará el futuro de nuestra sociedad.
Las columnas deben enviarse a mad@corp.microjuris.com y deben ser de 600-800 palabras.