Cómo revivir Wikipedia en la era de ChatGPT | Tecnología

En Wikipedia siempre estás acostumbrado a ver aparecer artículos falsos. Sólo un ejemplo: durante un tiempo, la página que contenía la biografía de un presentador de radio de Irlanda del Norte decía que se trataba de una promesa de break dance y que su carrera en el arrendamiento urbano se vio truncada debido a una lesión en la columna. Pero todo fue puro troleo. Otras veces, al cambiar, hay buenas promociones o desinformación. El portal tiene una gran tradición en abordar este tipo de problemas. Actualmente se ha realizado un seguimiento de una comunidad de 265.000 voluntarios activos. Pero la explosión de textos generados por una planta artificial inteligente plantea nuevos desafíos.

Con más de 16.000 millones de visitas al mes, el prestigio de Wikipedia está al alcance de todos. Se trata, por tanto, de un lugar codificado para informar desinformación o difundir mensajes de marketing, tanto de empresas como de particulares. Y con la inteligencia artificial (IA), podemos generar textos creativos a nuestro antojo, de forma sencilla y sin efecto.

Desde el lanzamiento de ChatGPT, el portal ha ampliado su equipamiento de aprendizaje automático. El cofundador de Wikipedia, Jimmy Wales, dijo que la IA es a la vez “una oportunidad y una amenaza”. Y en su última campaña para captar fondos, uno de los demandantes destruyó el papel de la plataforma en la era de la inteligencia artificial.

Miguel Ángel García, socio de Wikimedia España y miembro de la junta directiva, reconoce haber sido informado de los textos concretos que generaba IA. “Hemos notado que están apareciendo nuevos editores que quieren agregar contenido. Añades contenido muy extenso y muy desarrollado, que es algo raro. Porque cuando seas un voluntario que se comprometa, construye los artículos poco a poco. Ir párrafo a párrafo”.

García conoce bien a estos jefes. Colaboré con Wikipedia en 2006, mientras estaba en el instituto. Se corrigió la ortografía incorrecta o aplicaciones de cambios gramaticales obvios. Su primer artículo lo creó porque trabajó en el pueblo de sus padres, Campaspera, cerca de Valladolid. No tienes información sobre esta localidad en el portal, porque también te suscribiste a tu texto con fotos que él le tomó.

“Ya que la inteligencia artificial aparece cada vez más deliberadamente para crear un texto gigantesco, aparentemente bien estructurado y bien desarrollado. Pero ahora leo y descubro las redundancias que una persona es capaz de detectar repetidamente en textos que tienen inteligencia artificial”, dijo. García tiene coletillas y ciertas formas de presentar la información, con introducciones prácticas y conclusiones.

Este tipo de texto corre el riesgo de perderse en un océano de más de 62 millones de artículos y más de 300 idiomas. Chris Albon, director de aprendizaje automático de la Fundación Wikimedia, que controla Wikipedia, dijo que desde 2002, algunos voluntarios habían utilizado las herramientas de IA en cualquier cosa que fuera redundante. La tecnología no es la misma. Y la clave para controlar los textos inapropiados está precisamente en la comunidad de voluntarios, que moderan el contenido. Ningún texto escrito solo, sino editores y discriminadores no puede ser válido.

“En esta nueva era de la inteligencia artificial, la fortaleza de este modelo de moderación de contenido liderado por personas es más relevante. El modelo de Wikipedia, basado en el debate, el consenso y los estrictos estándares de la ciudad (de las fuentes), es muy resistente a la hora de mantener la calidad del contenido durante las últimas décadas”, dice Albon. Todo este texto debe estar referenciado de fuentes secundarias, que se entrelazan en otros sitios web.

Nos suscribimos cuando nacimos ChatGPT

Si un artículo no está vigente, la comunidad de voluntarios lo detecta y toma medidas. “En la mayoría de los casos, los artículos se recuperan instantáneamente, porque con un vistazo de dos clics se puede detectar que el texto no tiene sentido. Si no es así, se debe marcar para que quede escrito automáticamente en un plazo máximo de 30 días si el autor no logra acreditarse con las fuentes que están escritas”, explica García.

Wikimedia España tiene conocimiento de que al consultar ChatGPT se encuentran en el portal una serie de textos generados por IA. Pero hoy la tendencia se ha estabilizado gracias a los esfuerzos de la comunidad. Por su parte, Albon dice que quiere aprender a vivir con estas herramientas. “La encuesta de Wikipedia garantiza que la IA siempre esté segura de que las personas están editando, mejorando y auditando el trabajo que realiza la IA. Los voluntarios crean políticas para el uso responsable de las herramientas de IA en Wikipedia y velan por su correcta aplicación”, reflexiona. El portal no penaliza el uso de inteligencia artificial en los textos, porque no se adaptan a la calidad que requieren nuestras políticas.

El alcalde responde a Wikipedia que, según García, estaría fuera de ella. Sí, la plataforma para bebés de fuentes secundarias. “Tiene un problema de nivel medio relacionado con posibles textos generados por IA que se convierten en fuentes aparentemente confiables del mundo real. Cada día hay más publicaciones periódicas digitales que publican prácticamente cualquier cosa. “Llega un punto en que hay gente quiere referenciar textos con esos pseudomedios”, añadió.

La solución, como siempre en la plataforma, la encontramos entre los editores. Si los voluntarios detectan que un sitio no es confiable, la comunidad puede decidir incluirlo en la lista negra. Sucedió con un medio bronceado aceptado como tabloide Correo diario. Ha pasado un año desde que se le prohibió utilizarlo como fuente de información, porque la sensación británica había publicado información repetida y sin contrastes.

El contrato de arrendamiento de Wikipedia con gatos con IA

Existen otras preocupaciones sobre el futuro de Wikipedia en esta era de inteligencia artificial. En un escenario fascinante en el que los chatbots, como ChatGPT o Google Gemini, respondían a las consultas de los usuarios con un CV, ¿quién visitaba los artículos de Wikipedia? Y además, ¿quién los editará?

“Si hay una desconexión entre quien genera conocimiento, por ejemplo en Wikipedia, y quien lo consume, como por ejemplo en ChatGPT, corremos el riesgo de perder una generación de voluntarios”, dijo Albon.

Conecte sitios que tengan conocimiento de chatbots También tiene interés general la de IA, que lo extrae y replica. “Dado que existe una atribución clara vinculada a la fuente original de la información, las aplicaciones de IA corren el riesgo de introducir una cantidad sin precedentes de información errónea en el mundo. Los usuarios no podrán distinguir fácilmente información e instrucciones precisas. Pensamos mucho en este retorno y pensamos que la solución es el aporte”, comentó el director de Wikimedia Learning Automático.

La empresa es irónica. Como ya sabes, aplicaciones como ChatGPT o Google Gemini se basan en sistemas que se conectan al contenido de Wikipedia. Así, parte del conocimiento adquirido por los grandes modelos de lenguaje (LLM, por nuestras siglas en inglés) proviene de esos millones y millones de artículos enviados y editados por voluntarios.

puedes seguir EL PAÍS Tecnología fr. Facebook Y X o haga clic aquí para recibir el nuestro boletín semestral.