La inteligencia artificial (IA) ya es un territorio sin ley. La aprobación de la norma europea (AI Act) se aplicará progresivamente durante los próximos años en todo el sistema utilizado en la UE o que afecte a nuestros ciudadanos y será obligatoria para proveedores, intérpretes o importadores. En este sentido, la ley abre una brecha entre las grandes empresas, que permiten prever los límites de sus proyectos, y las pequeñas entidades que desean eliminar modelos limpios de las últimas aplicaciones de código abierto (Fuente abierta). Este último, si no tiene la capacidad de examinar sus sistemas, no cumplirá con los requisitos de prueba reglamentarios (cajas de arena) para desarrollar y desarrollar una IA innovadora antes de su introducción en el mercado. Pero su disponibilidad está abierta a cuestionamientos sobre la capacidad de controlar a sus usuarios, extendidos a la creación de pornografía no consentida y campañas de fraude.
“Confiamos en que la tecnología de IA que se cree sea responsable y ética en principio. IBM trabaja con órganos de gobierno de todo el mundo para promover regulaciones inteligentes y efectivas y proporcionar barreras de seguridad para la sociedad”, dijo Christina Montgomery, vicepresidenta y directora de privacidad y confianza de la multinacional.
Pilar Manchón, directora de estrategia de investigación de IA de Google y asesora del comité de asistencia del Gobierno español, se hizo eco de esta valoración durante un encuentro en la Universidad de Sevilla. “Necesitamos regulación porque la IA es extremadamente importante para no aceptarla. Debemos desarrollar la inteligencia artificial, pero debemos hacerlo bien”. El investigador resume las premisas incluidas en los principios de la IA: “Es muy fácil de captar: no hay cosas malas, hay cosas buenas, y si haces algo, asegúrate de tener un impacto positivo en la comunidad, en la sociedad. . , en la comunidad científica. Y, si potencialmente puede hacer algo que no sea para la persona que lo usa o para la persona que lo planifica, asegúrese de tomar todas las precauciones necesarias y mitigar los riesgos. Haz el bien, innova, sé audaz, pero de forma responsable”.
El integrador de Google afirma que esta visión coincide con la de otras multinacionales. Sobre este tema, el presidente de Microsoft, Brad Smith, confirmó en una reciente entrevista con EL PAÍS: “Necesitamos un nivel de regulación que garantice la seguridad”. Brad cree que la legislación europea debe “considerar las normas de seguridad y establecer una base para estos modelos”.
De manera similar, Jean-Marc Leclerc, jefe de gobierno de la UE y reguladores de IBM, que adoptó la ley europea, amplió y estableció el establecimiento de entidades oficiales que se esfuerzan por implementar sistemas de ética, como se esperaba. la reglamentación. Pero agregó: «Muchas organizaciones que pueden estar dentro del alcance de la aplicación de la IA no pueden establecer la gobernanza de su infraestructura para cumplir con el estándar en sus procesos».
La cautela de IBM responde a la proliferación de herramientas de codificación abierta, más efectistas cuando no son gratuitas y además efectivas. Dadas sus limitaciones para las empresas, puedes interesarte por proyectos de grandes empresas y proponerlos libremente. Puede ser que, escrito por un ingeniero de Google, esta empresa no tenga en cuenta oficialmente la opinión particular del investigador, que anuncia que la IA está fuera del control de las grandes empresas.
La empresa emergente Hugging Face tiene una alternativa de código abierto a ChatGPT, la popular aplicación conversacional de OpenAI, desde hace un año. “Nunca abandonaremos la lucha por la IA de código abierto”, afirmó Julien Chaumond, cofundador de esta empresa. Al mismo tiempo, Stability AI está lanzando su propio modelo e incluso la Universidad de Stanford está asociada a su sistema Alpaca.
“Es un espacio de la comunidad global para llevar el poder de la inteligencia artificial conversacional a todos, para acercar las manos de algunas grandes corporaciones”, dice el investigador de IA y youtuber Yannic Kilcher en un vídeo de presentación de Open Assistant, una de estas plataformas.
Joelle Pineau, directora de Meta AI y profesora de la Universidad McGill, defiende la Revisión del MITsistemas de código abierto: “Es en gran medida enfoque de mercado libre, del tipo moverse rápidamente, construir elementos. Realmente diversificar el número de personas que pueden contribuir al desarrollo de la tecnología y eso significa que sólo los investigadores o empresarios pueden acceder a estos modelos”.
Pero la propia Pineau admite los riesgos de este sistema, si escapa a los criterios éticos y normativos que establece la ley, promueve la desinformación, los prejuicios y los discursos de odio o sirvan para crear programas maliciosos. «Es importante lograr un equilibrio entre transparencia y seguridad», reflexiona Pineau.
“No soy un evangelista del código abierto”, según la misma publicación, la científica científica de Hugging Face Margaret Mitchell. “Tienes motivos para pensar en lo que está rodeado de muchos sentimientos”. Mitchell dice que la pornografía no es consensuada («Es uno de los principales usos de la IA para crear imágenes», admite) como ejemplo de la tendencia a hacer que los modelos poderosos sean ampliamente accesibles.
Respecto al uso de estos sistemas mediante ciberataques, Bobby Ford, director de seguridad de Hewlett Packard Enterprise, afirmó en la reunión del CPX en Viena: «Mi mayor preocupación con respecto a la referencia a la IA generativa es que la adopción de tecnología por parte del enemigo se esté produciendo a un ritmo más rápido que el nuestro. El adversario tiene mucho tiempo para mejorar la inteligencia artificial. Si no somos los mismos defensores de vuestros ataques, la guerra es asimétrica. Cualquiera que tenga acceso a Internet y un teclado puede ser un hacker.
Maya Horowitz, vicepresidenta de investigación de la empresa de ciberseguridad Check Point, es la más optimista: “Los defensores utilizan la inteligencia artificial mejor que los actores de seguridad. Contamos con médicos en motores de seguridad fundamentales, mientras que los conductores de hoy tienen experiencia y se ocupan de lo que puede utilizar. Hay algunas cosas. El más popular es escribir correos electrónicos desde Suplantación de identidad (comenzó durante la sustitución). Experimente también con llamadas de voz falsas. Pero no estamos creando código malicioso con esta tecnología. No es posible ordenarle a la IA que escriba código para simplemente usarlo. Necesitas un codificador que se separe de lo que estás haciendo. Creo que nuestra pandilla está aquí para ayudarte”.
Puedes seguir un EL PAÍS Tecnología fr. Facebook Sí X o haga clic aquí para recibir el nuestro boletín semanal.
Suscríbete para seguir el curso
Límites del pecado de Lee
_