La inteligencia artificial supone sin duda un cambio de paradigma. Planes legales, sociales y éticos que deben abordarse a la hora de diseñar la norma que rija su uso, con el fin de garantizar el orden social, económico y ético de nuestra sociedad.
Desde el punto de vista jurídico, se plantean igualmente relevantes las cuestiones que más te preocupan como la responsabilidad por daños, la privacidad, la ciberseguridad, la propiedad intelectual o la ética. Sí, una de las bases fundamentales de la IA es el procesamiento de grandes volúmenes de datos mediante técnicas como aprendizaje profundo y el uso de redes neuronales que funcionan como conexiones biológicas del cerebro humano y pueden imitar nuestras capacidades cognitivas.
En este contexto, la Comisión Europea, consciente de las oportunidades que ofrece esta tecnología, pero también de sus riesgos como la opacidad en la toma de decisiones, la discriminación sexual o de otro tipo, la intrusión en nuestra vida privada o su utilización con multas penales, presentó, en 2018, la Estrategia Europea para la IA, cuyo objetivo es promover una tecnología fiable en Europa. En este contexto, el Parlamento Europeo aprobó el 13 de marzo de 2024 el texto de la primera norma global integral en esta materia (Reglamento IA), que será directamente aplicable en los Estados miembros y más allá de las fronteras de la Unión Europea (UE). .
Este no es el único estándar que impone el reglamento, pero sí el único en el mundo que lo aborda de manera integral enfatizando los riesgos que sus usos conllevan para los derechos fundamentales y los valores humanos de la UE.
El Reglamento sobre IA regula la entrada en el mercado y el uso de soluciones de IA que van en contra de los derechos fundamentales y los valores de la UE. Así, por ejemplo, se prohíbe la entrada al mercado y el uso en la UE de soluciones que permitan la manipulación del comportamiento de personas o grupos vulnerables específicos; Por ejemplo, los juguetes activados por voz promueven comportamientos peligrosos en los niños. La UE también ha adoptado la posición en la circulación y uso de sistemas de puntuación social, como clasificar a las personas en función de su comportamiento, estatus socioeconómico o características personales, lo que generaría sociedades distorsionadas indeseables.
Asimismo, a diferencia de otros países como China, se prohibiría el uso de sistemas de identificación biométrica remota y en tiempo real, como el reconocimiento facial (con determinadas excepciones), lo que produciría un ataque a la privacidad de la vida y a los derechos fundamentales. Con esto queremos decir que estos usos violan los derechos, valores y principios éticos fundamentales de la UE y, por tanto, están prohibidos.
Habrá barreras insuperables cuando los usos de la IA sean contrarios a la democracia y al sistema de valores de la UE, además, se exigirán controles a los fabricantes y usuarios de herramientas que puedan suponer riesgos para la salud y los derechos fundamentales.
Por otro lado, se imponen obligaciones a los fabricantes, distribuidores, importadores y responsables del suministro (usuarios) de los sistemas que, por supuesto, podrían correr un riesgo para los ciudadanos europeos, si esto estuviera siempre permitido y cuando, en cada operador, participar en la cadena de suministro del sistema de IA para su comercialización y uso en Europa planificando los requisitos y medidas que mitiguen estos riesgos de forma controlada. En casos de alto riesgo, las obligaciones obligatorias son elevadas. Los fabricantes o implementadores serán responsables de realizar una evaluación de riesgos e implementar medidas de mitigación.
Un ejemplo de sistema de alto riesgo sería aquel que se utilizaría para procesos de selección de personal. Entre otras medidas, es obligatoria que haya supervisión humana (el hombre en el bucle). Con esta medida se evita que los algoritmos de selección puedan reproducirse, gracias al aprendizaje de patrones históricos, sesgos humanos. Hace unos años, una gran empresa de EE UU utilizó una herramienta de inteligencia artificial para esta tarea y, como resultado, contrató solo a hombres blancos porque descubrió que el mayor porcentaje de las decisiones de esta empresa en los últimos diez años habían sido concluidas. en el contrato de los hombres blancos, discriminando a las mujeres y a las personas de color.
En el extremo más bajo de la pirámide estarían las herramientas de inteligencia artificial cuyo uso supone un riesgo mínimo para las personas. Este es el caso de chatbots o ultrafalsificaciones (falsificaciones profundas), para aquellos a los que se les imponen, entre otras cosas, unos requisitos mínimos en materia de transparencia.
La UE busca este sistema para preservar su liderazgo tecnológico y, a su vez, garantizar que los europeos puedan confiar en una IA que respete los valores, derechos y principios fundamentales de la UE.
Sin embargo, de acuerdo con el Reglamento IA, también será necesario revisar otras normas que deberán adaptarse a los nuevos escenarios que la IA pondrá en marcha. Así, por ejemplo, la norma sobre responsabilidad por daños causados por productos defectuosos surge cuando la Unión Europea está trabajando en su revisión.
Otras áreas legales utilizadas en estas herramientas están relacionadas con la propiedad intelectual. Por un lado, por la posible vulneración de derechos que puede requerir el aprendizaje de algoritmos para producir resultados (outputs) mediante la extracción y explotación de una cantidad suficiente de datos, si estos no han sido utilizados de forma libre e informada. consentimiento del titular de la licencia. ni podemos confiar en nuestro uso en ninguna excepción legal.
Por otro lado, sabiendo que el sistema de derechos de propiedad intelectual se basa en la atribución de autoridad a una obra por el hecho de haber sido creada por una persona física, resulta difícil atribuir esta autoridad a resultados producidos por una máquina. o un algoritmo. Se trata de un debate interesante que es objeto de litigios en países como el Reino Unido y Estados Unidos.
En definitiva, el Reglamento sobre IA establece límites al uso de la IA en la Unión, lo que pone límites insalvables cuando los usos son contrarios a la democracia y al sistema de valores de la UE; además, se deben ejercer controles sobre los fabricantes y usuarios de herramientas de IA que puedan suponer riesgos para la salud y los derechos fundamentales de los europeos.
No es trivial, pero no tiene nada más que ver con empezar. Queremos modernizar nuestro sistema normativo de acuerdo con las nuevas realidades operativas y los riesgos que la IA nos planteará. A la velocidad a la que evolucionan estos sistemas, el peligro fundamental es que el Reglamento sobre IA quede obsoleto en un corto período de tiempo.