» Ir al portal nuevo de Microjuris    OK

El dique se rompió: dos veredictos que cambian las reglas del juego para las redes sociales

14 de abril de 2026
COMPARTIR

Por el Lcdo. Manuel A. Quilichini

El martes 24 de marzo, un jurado en Santa Fe, Nuevo México, deliberó menos de un día antes de encontrar a Meta responsable de poner en peligro a menores en sus plataformas. Al día siguiente, otro jurado en Los Ángeles llegó a la conclusión de que las redes sociales son intencionalmente adictivas. Dos estados. Dos juicios. Dos fundamentos legales distintos. Un mismo mensaje contundente. ¿Se está rompiendo el dique de la inmunidad (o impunidad) que han gozado las redes sociales durante los últimos años?

Demandar a una empresa de redes sociales por daños a sus usuarios era una tarea titánica y usualmente terminaba en fracasos. Estas empresas se escudaban detrás de la Sección 230 del "Communications Decency Act", alegando que las redes sociales no son editoras o moderadoras de información, sino solo un medio para publicar todo tipo de opiniones de otros, sin filtro alguno. Al parecer, ese argumento quedó sin fuerza, y quizás mortalmente herido, de acuerdo con los dos veredictos recientes.

El caso en Nuevo México

En el caso de Nuevo México, es el propio Estado, a través de su fiscal general, Raúl Torrez, quien en 2023 demandó a Meta (dueña de Facebook, WhatsApp e Instagram, entre otros) bajo las leyes estatales de protección al consumidor. Se le imputó a Meta el sistemáticamente engañar al público sobre la seguridad de sus plataformas y, mientras lo hacía, permitir que depredadores sexuales tuvieran acceso a menores en Instagram, Facebook y WhatsApp.

La prueba fue contundente. Nuevo México presentó, entre otras cosas, los resultados de una operación encubierta conocida como "Operation Metaphile", en la que investigadores crearon perfiles falsos que simulaban ser menores de 14 años. Lo que encontraron fue perturbador: esas cuentas recibieron contenido sexual explícito y solicitudes de contacto de adultos constantemente. Por ejemplo, en una cuenta de una niña ficticia de 13 años, esta recibió miles de solicitudes de amistad, era objeto de comentarios sexualmente sugestivos y recibía imágenes y videos de genitales masculinos al menos de 3 a 4 veces por semana. Lo peor de todo es que el algoritmo de Meta conectaba automáticamente a los niños con estos depredadores sexuales, sin que los niños hiciesen nada para atraerlos.

El jurado también evaluó 42 declaraciones públicas específicas de ejecutivos de Meta, incluyendo al CEO Mark Zuckerberg, y concluyó que eran falsas o engañosas, ya que reiteradamente indicaron que su plataforma era segura para los menores, omitiendo advertir sobre el riesgo de que los menores fueran expuestos a material sexualmente inapropiado y depredadores sexuales. Se demostró que Meta violó su propia regla de no permitir abrir cuentas a menores de 13 años, la cual no impidió que en Instagram existieran sobre 4 millones de cuentas de menores de 13 años.

Después de deliberar menos de un día, el veredicto fue claro: Meta deberá pagar $375 millones de dólares en multas. Pero el caso no ha terminado. En mayo, el juez decidirá si Meta creó además una molestia pública o "public nuisance", lo que podría traducirse en multas adicionales y, más importante, en órdenes que obliguen a la empresa a cambiar el funcionamiento de sus plataformas. El Estado también está pidiendo que Meta implemente verificación de edad real y elimine la mensajería cifrada para menores.

El caso en California

El caso de Los Ángeles es diferente en su naturaleza, pero igual de significativo. Aquí la demandante no es un gobierno, sino una joven de 20 años conocida en los documentos judiciales como K.G.M., o simplemente Kaley, como la llamaron sus abogados durante el juicio. Kaley comenzó a usar YouTube a los 6 años e Instagram a los 9. Para cuando terminó la escuela primaria, ya había publicado 284 videos en línea. A los 10 años, fue diagnosticada con ansiedad y depresión. Más tarde, con dismorfia corporal y pensamientos suicidas.

Sus abogados no argumentaron que el contenido que vio en las plataformas fuera dañino porque ese contenido hubiese estado protegido bajo la Sección 230. En cambio, argumentaron algo más difícil de refutar: que las propias plataformas fueron diseñadas deliberadamente para crear adicción, por lo que aplica la doctrina de diseño defectuoso o "design defect". En este análisis, el contenido es irrelevante a la controversia legal.

El algoritmo de estas redes, el "scroll infinito", la reproducción automática de videos ("autoplay"), los "likes", las notificaciones constantes y otras técnicas similares tienen un propósito específico: que sea casi imposible dejar de usar la aplicación. De hecho, estas técnicas afectan igualmente a adultos, pero los niños son más vulnerables y sufren daños más perdurables y traumáticos.

El jurado deliberó durante más de 40 horas antes de llegar a su veredicto: Meta y YouTube son responsables. Los daños ascienden a $6 millones, divididos entre compensatorios y punitivos, con Meta cargando el 70% y YouTube el 30%. Además, el jurado determinó que ambas empresas actuaron con malicia, fraude y opresión, lo que conlleva consecuencias legales severas en el futuro de este caso.

La nueva estrategia que hizo posible el cambio

La Sección 230 de la ley federal de comunicaciones ha sido, durante décadas, el escudo más poderoso de la industria tecnológica. En términos simples, dice que una plataforma no puede ser responsable del contenido que publican sus usuarios. Es la razón por la que YouTube no es responsable si alguien sube un video ilegal, o por la que Facebook no responde por lo que escribe un usuario en su muro.

Estos casos encontraron una salida inteligente: no atacaron el contenido, atacaron el diseño. No es lo mismo demandar a una empresa por lo que otros publican en ella, que demandar al fabricante de un automóvil porque el diseño de los frenos era defectuoso. El primero podría ser bloqueado por la Sección 230. El segundo es responsabilidad de producto o "product liability", y no hay ley que los proteja de esas alegaciones. Los demandantes pudieron establecer que Meta sabía del efecto adictivo de su sistema y nada hizo por modificarlo. Por el contrario, se dedicó a atraer y retener niños y adolescentes a sus plataformas, sin importarles el potencial daño a ellos.

La utilización de doctrinas de responsabilidad de productos es una distinción técnica con consecuencias enormes, porque abre la puerta a que miles de demandas similares que antes morían en las etapas iniciales ahora lleguen ante un jurado. Se estima que en este momento hay más de 10,000 demandas pendientes de individuos, a lo que se suman otros demandantes tales como distritos escolares y los secretarios de Justicia de 29 estados.

¿Siguiéndole los pasos al tabaco?

Los que siguen este tipo de litigación están comparándola inevitablemente con otro caso sobre adicción: el tabaco. En los años 90, las tabacaleras parecían invencibles. Décadas de negación, de cabilderos poderosos, de juicios que no llegaban a ningún lado. Hasta que descubrieron documentos internos que probaban que las empresas sabían —desde hacía mucho tiempo— que sus productos causaban cáncer y que sus productos eran adictivos, y habían tomado decisiones deliberadas para ocultarlo. Eso lo cambió todo.

El paralelo con las redes sociales es imposible de ignorar. En ambos casos: documentos internos que muestran que la empresa sabía del daño, hubo una negación pública sistemática, y existe un producto diseñado para crear dependencia. La diferencia es que las víctimas del tabaco eran adultos que elegían fumar. Las víctimas de las redes sociales son, en muchos casos, niños que comenzaron a usarlas a los 6, 7, 8 años.

El punto de inflexión

Estos dos veredictos son meramente el inicio de una nueva etapa de litigación que pudiese cambiar el rumbo de las redes sociales. Este verano, un tribunal federal en Oakland verá un caso consolidado en el que distritos escolares y padres de familia de todo el país demandan a Meta, YouTube, TikTok y Snap. En julio, otro juicio estatal comenzará en Los Ángeles. En mayo, el juez del caso de Nuevo México podría ordenar cambios estructurales en las plataformas de Meta.

A eso hay que sumarle la presión legislativa. California ya tiene un proyecto de ley que prohibiría a menores de 16 años crear cuentas en redes sociales. Otros estados van en la misma dirección.

¿Cambiarán estas victorias el comportamiento de Meta y Google de manera inmediata? Probablemente no por sí solas. Para una empresa con el tamaño de Meta, $375 millones de dólares representa menos del 2% de sus ganancias anuales. Sanciones económicas por sí solas no lograrán el cambio deseado. Sin embargo, la posibilidad de una litigación constante, agresiva y con múltiples veredictos negativos ciertamente tendrá su impacto, tal y como pasó con la litigación sobre productos de tabaco. Y posiblemente acelerará la adopción de reglamentación estatal restrictiva en contra de las redes sociales.

La coraza impenetrable de las empresas de redes sociales ha recibido dos rudos golpes y vendrán muchos más. El litigio continuará con apelaciones y más demandas, dado el poder económico de las empresas y lo que está en juego. Pero algo ha cambiado de manera irreversible: el dique de la impunidad no ha colapsado. Pero se rompió.

 

Powered by Microjuris.com