» Ir al portal nuevo de Microjuris OK
Por el Lcdo. Víctor Rodríguez Reyes, Ferraiuoli LLC
Este ha sido el año más activo en tiempos recientes en casos relacionados con el internet en el Tribunal Supremo de los Estados Unidos.
El internet sigue siendo tema de reglamentación porque es el sector económico de más crecimiento y está en constante cambio.
Herramientas de AI como ChatGPT impactan el futuro del trabajo, particularmente de trabajos creativos, y también cómo recibimos información o desinformación.
Voy a reseñar dos asuntos que han evolucionado este verano, y que había adelantado anteriormente en otro lugar: Responsabilidad legal en la creación de contenido digital | Cursos Microjuris: Educación legal para profesionales.
Primero, discuto lo que dijo el Tribunal Supremo de los Estados Unidos en cuanto al intento de Florida y Texas de controlar la capacidad editorial de plataformas y redes online.
Segundo, discuto posible legislación sobre las obligaciones de plataformas y redes en cuanto al uso y la información de menores.
Florida y Texas aprobaron leyes para que operadores de redes sociales y plataformas relacionadas no puedan eliminar (take down) contenido de sus usuarios. Una de las leyes exigía que en casos de take downs, las redes emitieran explicaciones individualizadas a quienes se les eliminaba contenido.
Netchoice, uno de los demandantes, es una organización comercial que incluye a empresas como Alphabet (Google y Youtube) y Meta (Facebook e Instagram).
Netchoice solicitó un interdicto contra los Estados en tribunales federales y, luego de pasar por los tribunales inferiores y apelativos, llegó al Supremo federal.
Netchoice argumenta que los operadores de redes sociales muestran a sus usuarios contenido «relevante» basado en su discreción editorial, eliminando contenido violento, ilegal o nocivo. Estas leyes violan su discreción editorial que es una categoría protegida por el derecho a la libertad de expresión.
Los Estados argumentaron que las leyes son neutrales en cuanto al contenido que regulan porque imponen las mismas reglas a todo tipo de contenido que sea eliminado. También alegan que el contenido objeto de las leyes es el de los usuarios de las redes y no contenido de los operadores, por lo que estos no tienen un reclamo de libertad de expresión.
En la medida en que las plataformas de redes sociales crean productos expresivos, reciben la protección de la Primera Enmienda.
Al presentar el contenido en las redes o plataformas, los operadores toman decisiones sobre qué discurso de terceros mostrar y cómo mostrarlo, a través del diseño de la arquitectura y algoritmos. Esas decisiones editoriales incluyen excluir, organizar y priorizar, y, esas millones de decisiones diarias, producen compilaciones distintivas (feeds) de expresión.
La jurisprudencia del Tribunal Supremo ha sido consistente en aplicar la protección de la Primera Enmienda a los editores tradicionales y las características particulares de este nuevo medio de comunicación no exime del cumplimiento con las exigencias del derecho a libertad de expresión.
Validar estas leyes prohibiría a los operadores de eliminar contenido relacionado con «ideología Nazi, terrorismo, racismo, islamofobia, antisemitismo, violencia, desincentivar el uso de vacunas, promoción de tratamientos médicos fraudulentos y avanzar reclamos falsos de fraude electoral».
Basado en estas conclusiones, el tribunal Supremo determinó que los tribunales apelativos habían aplicado el Derecho incorrectamente, y devolvió los casos a los tribunales de distrito para que, aplicando estas normas, se analizara si existe alguna aplicación válida de dichas leyes o si son del todo inconstitucionales.
El 30 de julio de 2024 el Senado de los Estados Unidos aprobó enmiendas a un proyecto que cambiaría cómo operan las redes sociales de menores de edad.
Hay tres principios clave en esta legislación: rendición de cuentas, salvaguardias y transparencia.
En primer lugar, las plataformas de redes sociales estarán sujetas al deber de cuidado para evitar que sus productos causen autolesiones, suicidio, trastornos alimentarios, abuso de sustancias y otros impactos nocivos.
En segundo lugar, las plataformas de medios sociales tendrán que ofrecer a los jóvenes salvaguardias en la configuración de forma predeterminada.
Finalmente, las empresas de redes sociales ya no podrán ocultar los daños. Esta legislación requerirá auditorías independientes anuales y acceso a datos.
Si es aprobada en la Cámara y firmada por el presidente, esta ley aplica a plataformas en línea (redes sociales), videojuegos en línea (streaming games), messaging o video streaming apps y cualquier otro medio de comunicación online para el cual sea razonablemente probable que sea utilizado por un menor. No aplica a proveedores de servicios de telecomunicación por cable o banda ancha, email, servicio de video o teleconferencia que no sea una red social y en el cual la comunicación es originada por un identificador (ej. link), mensajería de texto que no forme parte de una red social, entre otros.
Una plataforma deberá cumplir con un deber de cuidado en la creación e implementación de sus funcionalidades para prevenir y mitigar daños a los menores relacionados con: ansiedad, depresión, trastornos alimentarios, trastornos por uso de sustancias y conductas suicidas; patrones de uso que indican o fomentan conductas similares a las de adicción; violencia física o acoso; explotación sexual; promoción de tabaco, sustancias controladas apuestas o alcohol; o practicas predatorias, injustas o engañosas.
El deber de cuidado no prohíbe que los menores puedan buscar o acceder a información relacionada con la prevención de las conductas mencionadas.
Una plataforma deberá incluir medidas de control de fácil acceso que: limiten la capacidad de otros usuarios de comunicarse con menores; evite el acceso a data de un usuario menor de edad; limite funcionalidades que promuevan o aumenten la frecuencia del tiempo que pasa un menor en la plataforma; permita opt out de recomendaciones personalizadas al menor o que limite categorías específicas de recomendaciones; restrinja la geolocalización del menor; configuraciones predeterminadas con el mayor nivel de protección disponible en la plataforma; configuraciones que permitan a los padres manejar el nivel de privacidad, controlar la capacidad de hacer compras, y la capacidad de supervisar y restringir el tiempo en la plataforma.
Al menos una vez al año, una plataforma deberá emitir un informe público que describa los riesgos razonablemente previsibles de daños a menores y evalúe las medidas de prevención y mitigación tomadas para abordar dicho riesgo basándose en una auditoría independiente de terceros realizada mediante una inspección razonable de la plataforma.