Respuestas a la ley europea de inteligencia artificial | Tecnología

Los sistemas y programas de inteligencia artificial (IA) son capaces de realizar tareas específicas de la inteligencia humana, ya que aprenderán (aprendizaje automático), percibir, comprender el lenguaje natural y resolver problemas. Estás presente en todos los ámbitos de nuestra vida, desde las habituales aplicaciones de compra o visualización de películas hasta el desarrollo de nuevas fórmulas farmacéuticas o la organización de procesos de producción. Le permitirá automatizar tareas, tomar decisiones, mejorar la eficiencia y proporcionar soluciones en campos tan diversos como la medicina, la industria, la robótica y los servicios financieros. La ley europea de IA comienza a aplicarse paulatinamente en el tema de garantizar el desarrollo según criterios éticos y legales. Hay 10 respuestas a personas que generaron una iniciativa pionera en el mundo:

¿Por qué Europa lo regula?

La inteligencia artificial aporta beneficios sociales, promueve el crecimiento económico y mejora la innovación y la competitividad. Estas aplicaciones, en general, tienen un riesgo de fallas bajo o nulo. Pero otros pueden generar situaciones contrarias a derechos y libertades, como el uso de inteligencia artificial para generar imágenes pornográficas no deseadas o el uso de datos biométricos para categorizar a las personas por naturaleza o su aplicación en los procesos de contratación, educación, asistencia sanitaria o policía predictiva. acción.

¿Cuáles son las categorías de arroz?

Respuesta mínima: Esta categoría es la mayoría de los sistemas. Para estas aplicaciones, el proveedor, de forma voluntaria, puede adoptar requisitos éticos y adherirse a códigos de conducta. Se considera de uso empresarial general con una potencia de cálculo de 10²⁵ operaciones flotantes por segundo (FLOPS, por su nombre en inglés). FLOPS es el medio de representación de un ordenador y la Comisión considera esta dimensión como la sombra de posibles riesgos sistémicos. La UE considera que ChatGPT-4, de OpenAI, y Gemini, de Google DeepMind, podrían quedar en esta sombra, lo que podría revisarse durante un acto delegado.

Alto riesgo: Son los modelos que potencialmente pueden afectar la seguridad de las personas o sus derechos. La lista está abierta a revisión permanente, pero la norma ha quedado definida por los ámbitos de aplicación incluidos en esta categoría, como las infraestructuras críticas de comunicación y asistencia, la educación, la gestión de personal o el acceso a servicios esenciales.

Riesgo Inadmisible: Los sistemas que se incluyen en esta categoría están prohibidos porque violan derechos fundamentales. En esta lista se encuentran todos los rankings o puntos sociales que prueban la vulnerabilidad de las personas y la identificación de razón, opinión, creencia, orientación sexual o reacción emocional. Se prevén excepciones para su uso policial al finalizar la persecución de 16 hechos concretos relacionados con la desaparición de personas, la seguridad, la explotación laboral y sexual, la prevención de medidas para la vida, la seguridad o la respuesta a la amenaza actual o previsible de un terrorista. ataque. . En caso de emergencia, podrá autorizar un uso excepcional, pero si se niega, todos los datos e información que haya sido eliminada. En caso de emergencia, se ha realizado una evaluación de impacto previa desde la perspectiva de los derechos fundamentales y se debe notificar a la autoridad de vigilancia del mercado correspondiente y a la autoridad de protección de datos.

Información específica para la transparencia: Consulte los peligros de manipulación que surgen con burbujas de apariencia real (falsificaciones profundas) o con aplicaciones conversacionales. La norma exige dejar una patente de forma inequívoca tanto si el usuario está ante una creación artificial como si interactúa con una máquina.

Riesgo sistémico: La norma se debe a que el uso generalizado de sistemas de alta capacidad puede causar daños masivos o de alta capacidad, como el caso de los cigarrillos o la propagación de un bulo financiero o un songo.

¿Quiénes deben someterse a la ley?

Todos los agentes, tanto públicos como privados, que utilizan sistemas de inteligencia artificial dentro de la UE deben de alguna manera estar dentro de la ley, pero no son europeos. Afecta a los proveedores de programas, a quienes los implementan y a quienes los compran. Todo debe revelarse para que su sistema sea seguro y cumpla con la ley. En el caso de sistemas de alto nivel, antes y después de su comercialización o servicio, los sistemas deben someterse a una evaluación de conformidad para garantizar la calidad de los datos, la trazabilidad, la transparencia, la supervisión humana, la precisión, la ciberseguridad y la robustez. . Esta evaluación deberá repetirse si se modifica sustancialmente el sistema o su finalidad. Les systèmes d’intelligence artificielle de haut niveau utilisés par les autorités ou les entités qui agissent en leur nom doivent également être enregistrés dans une base de données publiques de l’UE, et moins que les systèmes sont mis en œuvre pour les effets politiques et Migración. Los proveedores de modelos con riesgos sistémicos (potencia informática superior a 10²⁵ FLOPS) tienen la obligación de evaluación y mitigación, notificar incidentes graves, realizar pruebas y evaluaciones avanzadas, garantizar la ciberseguridad y facilitar información sobre el consumo energético de su energía. . modelos.

¿Por qué es necesario incluir una evaluación de cumplimiento?

Los procesos, período y frecuencia de uso, categorías de personas físicas y grupos afectados, riesgos específicos, medidas de vigilancia humana y plan de acción en caso de materialización de riesgos.

¿Cómo informarle a un proveedor sobre los efectos de su producto?

Las grandes empresas cuentan con sistemas para adaptarse al estándar. Para las entidades pequeñas y aquellas que utilizan sistemas de código abierto, la ley crea espacios controlados para ensayos y pruebas en condiciones reales, que proporcionan un espacio controlado para probar tecnologías innovadoras durante sus meses de extensión. Esto podría ser objeto de inspección.

¿Quiénes están exentos?

Los proveedores de plantillas gratuitas y de código abierto están exentos de obligaciones de marketing, pero no de la obligación de evitar riesgos. Tampoco afecta la norma sobre actividades de investigación, desarrollo y creación de prototipos o sobre proyectos dirigidos a usuarios de defensa o seguridad nacional. Los sistemas de IA de uso general tienden a cumplir requisitos de transparencia, como desarrollar documentación técnica, cumplir con las leyes de derechos de autor de la UE y difundir resúmenes detallados sobre el contenido utilizado para la capacitación. del sistema.

¿Quién vela por la acumulación?

Existe una Oficina Europea de Inteligencia Artificial, un panel de expertos científicos y autoridades nacionales de supervisión para monitorear sistemas y autorizar aplicaciones. Las agencias y oficinas de IA deben tener acceso a la información necesaria para cumplir con sus obligaciones.

¿Será esto totalmente aplicable a la Ley AI?

Luego de su adopción, la Ley de IA entra en vigor dentro de los 20 días siguientes a su publicación y será plenamente aplicable en 24 meses, de manera progresiva. En la primera mitad, los estados deben eliminar los sistemas prohibidos. En el transcurso de un año, se impusieron mandatos gubernamentales para la IA de uso general. En dos años debería poder adaptar todos los sistemas a un alto nivel.

¿Qué pasa con las sanciones por infracciones?

Cuando se comercialicen o utilicen sistemas de inteligencia artificial que no cumplan los requisitos reglamentarios, los Estados miembros deben establecer sanciones efectivas, proporcionadas y disuasorias para las infracciones y notificaciones a la Comisión. Son varios millones de euros hasta 35 millones de euros o el 7% del volumen de negocio anual mundial del ejercicio anterior, hasta 15 millones de euros o el 3% del volumen de negocio y hasta 7,5 millones de euros o el 1,5% del negocio. volumen. En cada categoría de infracción, la sombra es la menor de las dos importaciones para las empresas y la mayor para las empresas más grandes.

¿Qué podemos hacer con la víctima de un delito?

La Ley de IA daba derecho a presentar un informe a la autoridad nacional y facilitar a las personas reclamar una indemnización por los daños causados ​​por sistemas de inteligencia artificial de alto nivel.

Puedes seguir un EL PAÍS Tecnología fr. FacebookX o haga clic aquí para recibir el nuestro boletín semanal.

Suscríbete para seguir el curso

Límites del pecado de Lee

_