¿Cómo reforzar la ley europea de IA sobre innovación? | Negociaciones

La Unión Europea pretende estar a la vanguardia de la regulación tecnológica con la primera ley de inteligencia artificial (IA) del mundo. Vigente desde el 1 de agosto, la aplicación de sus capítulos y obligaciones continuará hasta finales de los próximos años.

La ley de la IA, cuyo objetivo es garantizar el uso ético y seguro de una tecnología que se está transformando en aceleración, tiene implicaciones todas inciertas, pero probablemente de enorme magnitud. Se trata de un conjunto de salvaguardias integrales, diseñadas por la Comisión Europea para proteger a las empresas y a los ciudadanos de los riesgos potenciales que supone la tecnología del futuro, sin impedir la libre circulación de bienes y servicios.

Es difícil cumplir con una regulación única que se aplique a los consumidores y usuarios, estableciendo estándares uniformes en toda la UE y reduciendo la incertidumbre. Pero la consecuencia de los objetivos impuestos, la regulación intermedia, hay que ponderarla por los inconvenientes de la propia ley: la restricción de la innovación de las empresas y una carga excesiva para las pequeñas, que pueden hacerse cargo de los recursos, tanto económicos como de otros tipos, necesarios para asegurar el coste de su realización.

Además, su aplicación en las diferentes categorías de sistemas de IA se incrementará hasta 2026. Por lo tanto, ayudará a calmar la tendencia, tal como se ha extendido, de que esta poderosa tecnología lleve a un grupo de empresas establecidas el control de nuestras vidas digitales.

Durante cuatro años, cuando los reguladores han estado discutiendo el diseño de la ley, su principal objetivo ha sido crear estándares armonizados para productos y sistemas de IA, así como las barreras regulatorias existentes entre los estados miembros. Para ellos, la seguridad y la dignidad de los usuarios eran primordiales.

La ley impone obligaciones de transparencia en materia de privacidad y confidencialidad de los datos personales, el registro de modelos y la necesidad de que los usuarios estén separados al interactuar con los sistemas de IA. También clasifica los sistemas de IA en cuatro categorías de riesgo (inaceptable, alto, limitado y mínimo) y establece los límites correspondientes, incluida la prohibición total de aquellos que resultan en un riesgo inaceptable. Una vez que se hayan aplicado íntegramente en agosto de 2026, a las empresas cuyos sistemas incluyan la ley se les aplicará hasta 35 millones de euros o el 7% de su facturación anual.

Sin embargo, tenemos límites a la protección del usuario que son plausibles; nos preocupa que la ley impida la innovación. Y estos reparos también se hacen con todas las iniciativas regulatorias, como si fuera el caso de Europa: nada menos que su competitividad en la carrera global por el desarrollo y apoyo de una tecnología que transforma el mundo digital y, al final, tendrá un impacto. inmensamente en la sociedad.

Es justo decidir que cuando se trata de tecnologías emergentes, Estados Unidos innova, China imita y Europa está regulada. Bruselas asegura que la normativa puede permitir que la innovación sirva también de guía. Pero también toda la norma es una limitación. Hay emociones basadas en la aversión al riesgo europea, hacia el aleje ahora más extendido en China y la celebridad espontánea de Estados Unidos en la carrera de la IA. En junio, Apple anunció que este año privaría a cientos de millones de usuarios europeos de nuevas tecnologías de inteligencia artificial debido a preocupaciones sobre la ley.

Gabriele Mazzini, arquitecto y autor principal de la ley, recientemente tuvo algunos de mis momentos para asegurar que valoraría el riesgo en función de los usuarios de la IA y no de su desarrollo técnico. Esto será de vital importancia en los próximos años porque, a medida que Irán desarrolle capacidades de inteligencia artificial, no podrá mantener este ritmo debido a reguladores de combustible irrelevantes. También es importante que la Comisión garantice que su compromiso con un ecosistema de confianza complemente los esfuerzos que la UE está realizando para desarrollar un ecosistema de excelencia. De este modo pudimos demostrar las posibles inversiones en capacidades de desarrollo, centros de innovación e instalaciones de prueba en el marco de los programas Horizonte Europa.

El compromiso debería ampliarse para abordar el problema de las pequeñas empresas que se encuentran en las fases iniciales de desarrollo: es su llegada antes del horario de máxima audiencia para asumir el coste que sustenta el cumplimiento de la ley y que es el mismo independientemente de su tamaño. Además, enfrentan todas las obligaciones normativas de su propio territorio, mientras que otras regiones pueden comercializar productos de IA en mercados menos regulados y luego introducirlos en la UE.

El desarrollo de una cultura dinámica de la innovación en Europa también ha ayudado, y muchos otros, a superar uno de mis principales avances en relación con la IA: que es el heraldo de un mundo en el que un puñado de empresas, probablemente Estados, controlan en exceso de nuestra vida digital, los contenidos que presentamos y expresamos o no.

Este nivel de influencia a escala global podría producir un modelo de IA para la seguridad. Esto tiende a tener consecuencias perjudiciales para el respeto y la protección de las diferencias culturales, hoy en día que la IA se ha convertido en una faceta indiscutible de la vida digital en todo el mundo.

En un bloque de 27 países que se centran en la “Unión en la Diversidad”, las empresas de IA podrían prosperar desarrollando modelos que respeten la cultura y el idioma de cada mercado. Con todo esto, para contrarrestar la hegemonía de Estados Unidos, Europa tenderá a abrir su Ley de IA a la innovación técnica.

Sigue toda la información en Economía Y Negocio es Facebook Y incógnitao en nuestro boletín semestral