Las elecciones europeas del 9 de junio, que reunieron a más de 370 millones de ciudadanos, podrían convertirse en un terreno favorecido por la desinformación y la manipulación política. Así, en octubre se creó la Agencia de la UE para la Ciberseguridad (Enisa), que se ocupa de ello y del efecto que se puede generar en el proceso de generación de inteligencia artificial (IA). Esta tecnología es capaz de producir textos convincentes o vídeos hiperrealistas, que pueden utilizarse para propagar ideas interesantes e influir en los votos de los ciudadanos.
Pero difundir mensajes y mensajes interesantes no es el único problema que afecta a los ciudadanos. Hay partidos políticos que utilizan herramientas de publicidad digital que facilitan las redes sociales para personalizar y segmentar sus mensajes con el objeto de influir en el voto. Esto es lo que hizo Cambridge Analytica durante las presidencias de 2016, y este caso permitió recopilar datos de 80 millones de usuarios capturados de manera fraudulenta por Facebook.
La segmentación de audiencias, definida y dividida en grupos que comparten una serie de características, es una práctica legal que puede utilizarse en la política de marketing. Allá microsegmentación La UE no permite cambios políticos que analicen los intereses de los individuos, y no de los de sus grupos. El Reglamento General de Protección de Datos (artículo 9.1) prohíbe el tratamiento de datos personales que revelen las opiniones políticas de los ciudadanos. Esto es exactamente lo que constituye los perfiles ideológicos que desarrollan la microsegmentación (o microorientaciónen francés): una especie de perfil político de cada individuo definido a partir de la información disponible en el historial de navegación o en sus reacciones en las redes sociales.
Pese lo prohibido, la publicidad política microsegmentado Esta es una práctica común hoy en día en Europa. El colectivo de privacidad Noyb (acrónimo de None of Your Business), liderado por el activista austriaco Max Schrems, presentó el año pasado una serie de denuncias contra varios partidos políticos alemanes que han sido recurrentes. esta técnica durante las elecciones federales de 2021.
En España, toda la formación consistió en reformar la Ley Orgánica del Régimen Electoral (LOREG) a partir de la Ley Orgánica de Protección de Datos (LOPD, 2018) para permitir a los partidos reconocer en la Web y las redes sociales “datos personales”. “Relativos a las opiniones de los ciudadanos” de cara en las elecciones de 2019. Un grupo de juristas y asociaciones ejercieron presión sobre el defensor del pueblo para que esto vuelva a suceder ante el Tribunal Constitucional. Y la Constitución cayó.
“Ella es la alcaldesa Victoria de mi carrera”, dijo Borja Adsuara, uno de los abogados que impulsó la apelación. “Por tanto, tememos a los partidos que se autorizan a copiar, en páginas web y redes sociales, las opiniones políticas de ciudadanos convencidos de sus datos personales, que se atribuyen a personas físicas con números y recursos”, añadió.
Con todo esto, hay quienes han publicado para esta técnica, pero están baneados. La red de activistas por los derechos digitales Xnet está en marcha, con una coalición de colectivos y organizaciones europeas con los mismos valores de sensibilización, la campaña “¿De quién soy el blanco?” «. Su objetivo es analizar Facebook e Instagram, las dos redes sociales estrella del Meta, explotando datos de los usuarios para personalizar las tarjetas con fines políticos.
La campaña gira en torno a la herramienta Who Targets Me, una extensión del navegador que permite copiar, catalogar y ver la publicidad electoral personalizada que se muestra a los usuarios de Facebook mientras navegan por la plataforma. La herramienta recopilará y procesará datos anonimizados que reciban campañas y publicaciones en redes sociales, los archivará y posteriormente los procesará.
Cuando más usuarios soliciten la extensión, también validarán los datos que los analistas extraigan de ellos. El objetivo es detectar partes recurrentes de la microsegmentación y momentos de la campaña. Xnet desarrolla información sobre estos datos que serán publicados una vez pasada la ciudad electoral.
Expertos y legisladores están de acuerdo con esto. microorientación Es una práctica que mejora el buen funcionamiento de la democracia. Estas técnicas, que utilizan el análisis de datos digitales para proporcionar a los usuarios información especialmente adaptada a su perfil, corren el riesgo de poder influir gravemente en el elector. “Los partidos políticos son el segundo cliente de la industria de la manipulación informática, después de los influencers: compradores de robots, perfiles de usuarios, etc. », explica Simona Levi, fundadora y coordinadora de Xnet. “Las estrategias de microorientación de las partes podemos manejar psicológicamente, según la información que hemos visto. Por eso creamos burbujas informativas. Decidimos lo que queremos ser, no lo que pensamos, no somos convincentes: manipulamos”.
«Todos los datos sobre las opiniones políticas de una persona están protegidos de forma especialmente estricta por el RGPD», afirmó Felix Mikolasch, abogado de privacidad de Noyb. «Estos datos no sólo son extremadamente sensibles, sino que también permiten una manipulación de los votantes a gran escala, como lo demuestra Cambridge Analytica», dijo.
Desinformación y manipulación en la era de la IA
La Comisión Europea ha dedicado dos semanas a X, TikTok, Facebook y otras plataformas importantes que pretenden contribuir a la circulación de contenidos específicos que deben presentarse a los votantes. Bruselas, cuyo tema es mitigar la interferencia y la desinformación, emitió una serie de directrices para plataformas con más de 45 millones de usuarios activos en la UE destinadas a combatir los contenidos novedosos impulsados por la IA y la publicidad política comprometida. Google, Meta y TikTok, por ejemplo, pueden equiparse específicamente para combatir la desinformación durante las elecciones.
En Europa hay 24 idiomas oficiales que controlar y el predominio de tantos modismos no es una característica habitual entre los moderadores de contenidos. Por este motivo la Comisión tiene un interés particular en lo que concierne a este ámbito. Según información de No sólo existen 17 de los idiomas oficiales de la UE, entre ellos el gris, el húngaro, el rumano y el sueco: todo se reduce a la IA.
La acción de desinformación y distribución de papeletas es habitual en todas las elecciones, al menos desde las presidencias de 2016 que llevaron a Donald Trump a la Casa Blanca. El peligro aumenta significativamente la mano de la IA generativa. Ahora recuerdo en particular lo que los falsificaciones profundas, los vídeos hiperrealistas producidos por IA pueden tener una influencia directa en el voto de millones de ciudadanos. Esta tecnología permite generar vídeos sobre cualquier cosa política que aparezca en cualquier situación de toma de decisiones.
Información reciente de Microsoft advierte que China pretende influir en las presidencias estadounidenses de noviembre, así como en las elecciones de Corea y la India, con contenidos generados por IA. La tecnología espera que varios grupos cibernéticos asociados con Beijing y Pyongyang estén trabajando allí, como lo hicieron en Taiwán. «Aunque el impacto de este contenido se ha detenido, la creatividad china a la hora de experimentar con memes, vídeos y audio continúa y puede ser eficaz en el futuro», concluye el estudio.
“La confianza en el proceso electoral de la UE dependerá fundamentalmente de nuestra capacidad para proporcionar infraestructura de ciberseguridad, así como de la integridad y disponibilidad de la información. Depende de nuestras garantías de que debemos tomar las medidas necesarias para lograr este objetivo sensible pero esencial para nuestras democracias”, dijo el director ejecutivo de Enisa, Juhan Lepassaar.
Puedes seguir un EL PAÍS Tecnología fr. Facebook Sí X o haga clic aquí para recibir el nuestro boletín semanal.
Suscríbete para seguir el curso
Límites del pecado de Lee
_