Redes sociales en el banquillo: Meta y YouTube sí son responsables
El caso KGM v. Meta Platforms y YouTube, recientemente fallado por un jurado en California, establece un precedente relevante. Un tribunal en Estados Unidos reconoce que el diseño de las plataformas —orientado a incentivar ciertas conductas— puede generar daño, especialmente en niños y adolescentes, y que las empresas deben hacerse responsables.
El litigio sostiene que las plataformas fueron diseñadas deliberadamente para maximizar la captación y permanencia de la atención de los usuarios más jóvenes, aumentando así sus ingresos. Scroll infinito, notificaciones constantes y sistemas de “likes” no son neutrales: configuran formas de interacción que orientan el comportamiento.
En Estados Unidos, esta discusión avanza principalmente por la vía judicial: ex post, después de que el daño ha sido demostrado. En Europa, en cambio, se ha abordado desde la regulación a través del Digital Services Act (DSA, vigente desde 2022), que exige a las plataformas demostrar, antes de operar, que sus sistemas no generan riesgos para menores. Más allá de establecer responsabilidad, este enfoque introduce un principio precautorio y de evaluación previa. Brasil ha seguido una línea similar este 2026, incorporando el principio del interés superior del niño en el entorno digital y estableciendo deberes de cuidado para las empresas.
En EE.UU. se sanciona después del daño —con multas que en este caso alcanzan los 3 millones de dólares por una víctima— mientras que en Europa y Brasil el foco está en la prevención. Se prohíben prácticas como los dark patterns, se limitan mecanismos de refuerzo conductual y se restringe el perfilamiento comercial de menores. En Brasil, además, la privacidad viene activada por defecto. Aun así, persisten niveles importantes de opacidad algorítmica, lo que dificulta auditar estos sistemas y, por tanto, su supervisión efectiva.
Este tipo de regulaciones modifica los incentivos. En la Unión Europea, las multas pueden alcanzar hasta el 6% de la facturación global; en Brasil, incluso se contempla la suspensión del servicio. Bajo estas condiciones, el diseño de las plataformas deja de ser solo una cuestión técnica o ética, y su incumplimiento pasa a tener consecuencias legales.
La protección de niños, niñas y adolescentes en entornos digitales no puede recaer únicamente en familias o escuelas. Tampoco parece suficiente, como en el caso australiano, limitar el acceso a servicios que también cumplen funciones sociales y de participación. La responsabilidad también recae en quienes diseñan y operan estas plataformas, incorporando criterios adecuados a la edad y al desarrollo de sus usuarios.
En América Latina, el desafío es avanzar hacia estándares comunes, con un enfoque preventivo y sistémico, y no a través de regulaciones fragmentadas. Una coordinación entre países del Cono Sur y la región andina permitiría enfrentar de mejor manera un problema que es, por definición, transnacional.
Por Luis Enrique Santana, Investigador BAND y director del Programa Ciudadanía Digital, Escuela de Comunicaciones y Periodismo - Universidad Adolfo Ibáñez
Lo último
Lo más leído
Casi nadie tiene claro qué es un modelo generativo. El resto lo leyó en La Tercera
Plan Digital + LT Beneficios$6.990 al mes SUSCRÍBETE