La Comisión Europea abrió hoy un procedimiento formal para evaluar a Meta, la empresa matriz de Facebook e Instagram, que podría contravenir la Ley de Servicios Digitales (DSA) por no proteger adecuadamente a los usuarios de menor edad. Más concretamente, Bruselas mencionó que los algoritmos de las redes sociales de la estrella de Meta “pueden simular ajustes en el comportamiento de los niños, así como los llamados efectos de la madriguera de conejo”, que son válidos como las montañas reales y los empleos que circulan. por sus redes.
«No estamos seguros de que el meta sea suficiente para cumplir las obligaciones de la DSA relativas a la mitigación de los efectos negativos sobre la salud física y mental de los jóvenes europeos», afirmó hoy a X Rouge el comisario europeo de Mercado Interior, Thierry. Bretón. La compañía respondió en un comunicado que su intención es que los jóvenes tengan experiencias en línea seguras y apropiadas para su edad. “Durante una década, hemos desarrollado más de 50 herramientas y políticas diseñadas para protegerlos. Estamos ante una respuesta de todo el sector y queremos compartir detalles de nuestro trabajo con la Comisión Europea”.
🚨Hoy abrimos el formal #DSA investigación contra #Meta.
No estamos convencidos de que Meta haya hecho lo suficiente para cumplir con las obligaciones de las DSA: mitigar los riesgos de efectos negativos en la salud física y mental de los jóvenes europeos en sus plataformas de Facebook e Instagram. pic.twitter.com/WxPwgE5Opc
-Thierry Bretón (@ThierryBreton) 16 de mayo de 2024
La apertura del procedimiento permitió concluir el análisis preliminar de la información de evaluación de riesgos enviada por Meta en septiembre de 2023, según lo requerido por la DSA, y las respuestas brindadas por la empresa a la propuesta de solicitudes formales de información de la Comisión sobre la protección. de menores y metodología de evaluación de riesgos.
Bruselas cree que el diseño propio de Facebook e Instagram podría «mejorar las carencias e inexperiencia de los menores y provocar conductas adictivas». La Comisión también quiere garantizar que las herramientas de verificación adecuadas sean apropiadas para la educación. Sus primeras pesquisas establecieron que podría “no ser razonable, proporcionada y eficaz”.
En tercer lugar, las autoridades europeas quieren comprobar que las plataformas de Meta garantizan un alto nivel de confidencialidad, seguridad y protección de los menores.
Los posibles peligros que las plataformas provocan para la salud mental de los menores son el principal culpable en la cabeza que afecta a los dirigentes de la empresa que dirige Mark Zuckerberg. En 2021, solo hubo una sensación generalizada entre los padres de los usuarios jóvenes que ganaron peso tras las revelaciones de Frances Haugen, un ejemplo de cómo Facebook filtró kilómetros de material que Instagram Lives aprendió de los efectos nocivos de la red social. entre los y las menores.
Se remitió en EE UU a una cascada de peticiones de familias afectadas por la denuncia de los Impuestos Generales de 41 Estados al considerar que Facebook e Instagram “provechan del dolor de los niños” para hacer negocios. El resultado de este tsunami masivo podría provocar un cambio radical en la apariencia y la dinámica de las redes sociales.
La segunda investigación en un mes
La Comisión investigará a fondo todos los preceptos de DSA por parte de Meta. La empresa fue incluida en abril de 2023 entre las grandes plataformas bajo la jurisdicción de la DSA (que cuentan con más de 45 millones de usuarios activos mensuales en la UE).
El procedimiento anunciado hoy se produjo a principios del 30 de abril, debido a la falta de control de los contenidos políticos antes de las elecciones europeas y a la “publicidad comprometida”. Bruselas aprovechó sus grandes plataformas para que se extremaran las precauciones para que las historietas de junio no fueran un coladero de desinformación e inyecciones extranjeras.
“La Comisión garantiza que Meta no cumple las obligaciones del Reglamento relativas a la lucha contra la difusión de anuncios engañosos, campañas de desinformación y comportamientos no auténticos coordinados en la UE. La proliferación de contenidos narrativos puede suponer un riesgo para el discurso cívico, los procesos electorales y los derechos fundamentales, así como para la protección del consumidor”, dijo el ejecutivo de la UE en un comunicado oficial.
Puedes seguir un EL PAÍS Tecnología fr. Facebook Sí X o haga clic aquí para recibir el nuestro boletín semanal.
Suscríbete para seguir el curso
Límites del pecado de Lee
_