Marc Serramià: “Si confiamos todas nuestras herramientas a ChatGPT, el conocimiento humano desaparecerá” | Tecnología

A Marc Serramià (Barcelona, ​​30 años) le preocupa la vertiginosa irrupción de la inteligencia artificial (IA) en nuestras vidas, acompañada de un serio debate sobre los riesgos que entraña esta tecnología. Ante los dilemas éticos que planteó Planta, Serramià decidió centrar su investigación en el desarrollo técnico “para controlar que el comportamiento de estos sistemas sea coherente con los valores humanos y las normas sociales”. Trabajó para el Premio de la Sociedad Científica Informática de España y la Fundación BBVA, que cada año distingue a jóvenes investigadores que han consolidado sus doctorados innovadores.

El catalán compara su trabajo en el contexto de la IA con el establecimiento de estándares de comportamiento de la sociedad a la hora de regular el tráfico. “Tenemos límites de velocidad en la carretera porque valoramos más la vida de los conductores que el camino para llegar rápidamente a nuestro destino”, afirma este doctor en ingeniería (con especialización en inteligencia artificial) por la Universidad de Barcelona, ​​actualmente profesor en el departamento . de Ciencias de la Computación de la Universidad de la City de Londres.

Pregunta. Algunos expertos dicen que los riesgos de la IA están creciendo al mismo ritmo que el cambio climático. ¿Cuál es su opinión?

Respuesta. Estoy de acuerdo. Un buen ejemplo para los medicamentos. Para poner un producto farmacéutico en el mercado, sólo es necesario demostrar que tiene un efecto primario positivo, porque los efectos secundarios no deben afectar a más personas que el primero. ¿Por qué no hacerlo con IA? Cuando diseñamos un algoritmo sabemos que la función principal se va a realizar bien, pero que no tendremos efectos secundarios. Creemos que en el caso de las drogas o las armas lo tenemos muy claro, pero con la IA no tanto.

PAG. ¿De qué peligros hablamos?

A. Hay mucho. Uno de ellos, en el centro de mi investigación, es la confidencialidad. Incluso si tenemos datos anónimos, siempre es posible realizar ingeniería inversa y deducir cosas para que sirvan como publicidad personalizada, para otorgar o no créditos bancarios o para que un posible empleador juzgue si es el perfil que busca. Nuestro trabajo es este: utilizamos los algoritmos para los estudiantes, y ¿por qué no usarlos también para cosas buenas, como saber cuáles son sus preferencias de privacidad? Oh mar, si dices que no quiero compartir mi ubicación, ya no me importa. Nos complace decirle que una IA puede enseñar al usuario y puede hacer que el representante en este proceso establezca sus preferencias en función de la información que tiene sobre él. Disponemos de una herramienta de IA muy sencilla y, sin embargo, nuestros datos deben poder elegir las preferencias reales del usuario con buena fiabilidad.

En octubre obtendremos uno de los seis premios que la Sociedad Científica Informática de España y la Fundación BBVA conceden a jóvenes investigadores prometedores.Jaime Villanueva

PAG. ¿Cuáles son otros problemas de privacidad?

A. Las voces inteligentes, similares a las de Alexa, están llegando al mercado muy rápidamente, pero están cayendo. Por ejemplo, solicitar conversaciones sensibles a contactos con quienes no quieran compartir información. Menos aún, pero seguramente más trascendente, es el peligro que suponen las armas autónomas.

PAG. ¿Cómo es que podemos tener armas autónomas?

A. Esto es un gran avance en términos de producción. Mi director de Tesis participó en un congreso de las Naciones Unidas sobre este tema y el discurso municipal que, entre políticos y militares, presenta esto: bueno, no los queremos, pero si nuestros deseos no son los nuestros, lo tenemos en otro pais. El equilibrio es muy complicado. Siempre habrá alguien en disputa y eso se aplicará a las personas involucradas.

PAG. Cuando tenemos armas autónomas, ¿a qué nos referimos como drones?

A. Por ahora creo que es el más extenso, sí. En el futuro, podremos hablar de robots humanoides armados. En ese momento, en la guerra de Ucrania y Rusia, se utilizaron drones explosivos. Pero también puedes poner a disposición armas para dispersarlos.

Hay que fomentar el desarrollo de armas autónomas con capacidad de decisión, porque somos creadores porque no sabemos cómo funcionan ni qué efectos pueden tener.

PAG. ¿Cuál es la forma de esto? ¿Es inevitable la automatización de la guerra?

A. Recomendamos que se intente frenar o desacelerar el desarrollo de armas autónomas con capacidad de decisión, porque en realidad somos creativos porque no sabemos cómo trabajar ni qué efectos pueden tener. Sí, es muy peligroso. El problema es que las empresas saben que no pueden tener otras y que acaban montando una especie de competencia. Es bueno que tengas algún tipo de certificación en este entorno. Debe utilizarse para productos de consumo, como las voces altas inteligentes: si se trata de una tienda y un producto certificado, acorde con la costumbre de un estudio profesional que garantiza el respeto a la vida privada, es probable que entienda esto y no otro.

PAG. ¿Existe realmente la inteligencia artificial?

A. Sí, pero no es muy visible. Este es un territorio nuevo: la primera Conferencia Internacional sobre Inteligencia Artificial tuvo lugar en 2018. Un tema en el que estoy trabajando es el uso de la IA para mejorar los procesos de presuposiciones participativos, como Decidim Barcelona. Uno de los problemas que tiene que ver con la participación popular, y que se estudia, es que generalmente las clases más desfavorecidas votan menos. Por tanto, esto implica sesgos en la selección de proyectos. Tenemos un algoritmo que puede implementar el sistema de valores de las personas que no participan, porque no pueden o no quieren, de una manera que coincida con sus sensibilidades. El objetivo es minimizar las posibilidades de acción que pueden tomar decisiones votadas por un solo niño. Lo interesante es que nuestras experiencias nos muestran que podemos encontrar un buen equilibrio entre tener a los participantes contentos y también representar a los que no participaron.

PAG. ¿Es posible codificar los algoritmos de Sean Éticos?

A. A nivel teórico, sí. Mi investigación se limita a este plano, en el centro de los sistemas multiagente (varios sistemas inteligentes que interactúan entre sí). La idea es pensar en cómo diseñar en el Día de la Madre, cuando la IA lo ha hecho todo, un sistema de estándares que nos asegure que los sistemas están alineados con nuestros valores. Hay otra indagación que nos lleva a este nivel práctico, pero aquí no hemos entrado.

PAG. ¿Y cómo puedes hacerlo?

A. La inteligencia artificial puede convertirse en una fórmula matemática que consiste en modificar el estado del mundo en un intento de maximizar dicha fórmula. Aunque parece que existe un comportamiento inteligente, no es ya un mecanismo de optimización. Puedes aplicar estándares en el código, o también modificar esta fórmula matemática para penalizar a aquellos que contengan el estándar. Sólo que lo haré bien, buscaré lo que te ayude a encontrar el propósito de diseñar este sistema, pero no sabes lo que estás haciendo.

A nivel teórico, es posible codificar los algoritmos de la ética de Sean.

PAG. Pero ahora estos algoritmos nos permiten utilizar a alguien que puede alterar estos estándares.

A. Por supuesto, al final la inteligencia es tan efectiva como el usuario. Pero nuestra investigación se centra en cómo podemos garantizar que no se utilicen algoritmos. Este es un trabajo teórico para un futuro en el que imaginamos que vivimos con sofisticados sistemas de IA.

PAG. ¿Cuál es la opinión de Generator AI sobre lo que está pasando en ChatGPT o Gemini? ¿Cuáles son los problemas de las plantas?

A. Es más central explicar el que se genera, o el que no se puede garantizar, que el que genera sentimiento. El algoritmo no es nada en absoluto, el único es el que es similar al que mostró él, la junta y todos los demás. Se puede iniciar el fin del aprendizaje automático, porque la máquina no tiene aprendizaje ni comprensión. Hay una fórmula matemática elegante que se va a cambiar, de modo que si tienes una ilustración de un gato, puedes buscar una ilustración de un gato, pero no entiendes qué es un gato.

PAG. No hay forma de lograr el efecto de tener estas herramientas en perfiles específicos. Una persona se suicidó durante semanas de conversación con un chatbot inteligente que la alojaba en ese momento.

A. El heno aquí varía. La primera es que hay un problema de desconocimiento: la gente no sabe cómo funcionan estos sistemas. Para muchos hombres que tienen el texto que producir, sólo tienen resultados probables. No hay nada inteligente, pero sí menos emoción, pero podemos dar esa impresión. También hay un problema en el ámbito de la educación. No es cierto que los antiguos alumnos utilicen ChatGPT para hacer los deberes, pero si todos confiamos en este tipo de herramientas el conocimiento humano desaparecerá. Equivocas el algoritmo y sabes que lo hizo. Y da la impresión de que muchos modelos están inventando respuestas. Y las cajas de tabaco pueden fumar mata. Con la IA, esto debería hacerse cargo.

¿Es suficiente dar un mensaje “generado por IA”? La gente está interesada en ChatGPT para votar en las próximas elecciones o qué medicamento tomar

PAG. Hacer referencia a un tipo de venta o certificación.

A. Exactamente. La industria ha crecido rápidamente y los gobiernos todavía tienen el mayor potencial. Estamos en este punto en lo que tiene mucho desarrollo y certificación y regulación. Creo que esta es la final que se resolverá y seremos mejores. Pero hoy es un momento peligroso.

PAG. ¿Qué es el Reglamento Europeo sobre IA?

A. Creo que este es un buen primer paso. En cualquier caso, estas preguntas se han dejado en gran medida en manos de la IA generativa. Por ejemplo, ChatGPT y otras herramientas similares sobre modelos de lenguaje. Tu virtud es escribir un texto que parezca humano, no escribe un texto verdadero. Sin embargo, los negocios de nuestras empresas venden este producto. ¿Podemos estar seguros de que podemos enviar el mensaje de que lo “generado por IA” es suficiente? Es sorprendente que la gente esté interesada en ChatGPT porque tienen que votar en las próximas elecciones, ya sea para contratar a una persona o un medicamento presentando historias similares. Y ya no sabemos de preguntas del estilo “No tengo ganas de vivir, ¿qué debo hacer?”. Creo que la IA generativa necesita ser más grande. Es imposible dar garantías y otras personas, si pueden, deben exigir garantías. Gran parte del debate actual gira en torno al derecho de autor, que también es muy importante, pero este otro debate me parece también crucial.

PAG. ¿Deberíamos tener algo de tiempo para la IA?

A. No, creo que tengo que ser respetuoso. Y hay que exigirle a la ciudadanía que los gobernadores tomen medidas y regulen bien esto. Nosotros, los consumidores, no debemos utilizar productos o servicios que consideremos que no cumplen con nuestros estándares. Si incluimos todo esto, estamos obligados ante la industria a brindar mayores opciones.

Puedes seguir un EL PAÍS Tecnología fr. FacebookX o haga clic aquí para recibir el nuestro boletín semanal.

Suscríbete para seguir el curso

Límites del pecado de Lee

_