Dw

Crean una IA que puede combatir teorías conspirativas

Un novedoso estudio pone en entredicho las investigaciones que sugieren que las creencias conspirativas de las personas no pueden cambiar y abre la puerta a un mayor uso de la inteligencia artificial.

16 de septiembre de 2024, 13:55 PM
16 de septiembre de 2024, 13:55 PM

Los resultados de las pasadas elecciones estadounidenses, las restricciones para detener la propagación del COVID-19, las vacunas contra el mismo virus, o el más reciente ataque con chuchillo a menores en Southport, Reino Unido. Todos estos eventos y muchos otros han sido noticia, no únicamente en sí mismos, sino por los supuestos datos que se han difundido de forma paralela y que han fomentado la construcción de un relato, en la mayoría de los casos paralelo y conspirativo, sobre lo ocurrido.

Ahora, un equipo de científicos ha querido utilizar el potencial de la inteligencia artificial (IA) mediante un modelo extenso del lenguaje o LLM para establecer diálogos con personas convencidas de ciertas teorías conspirativas y ayudarlas a abandonar estas creencias falsas.

Un chatbot para desmentir bulos

Investigadores del Massachusetts Institute of Technology (MIT) y de la Universidad de Cornell han desarrollado un chat de inteligencia artificial entrenado específicamente para cambiatir teorías conspirativas y bulos. El estudio, publicado en la revista Science el pasado 13 de septiembre, presenta la aplicación llamada "DebunkBot: Conspiratorial Conversations" (Debunkbot.com), operativa y disponible también en español.

En la fase de testear la aplicación, los participantes empezaron por describir una teoría con la que estaban de acuerdo y, a continuación, la IA entró en acción, adjuntando argumentos persuasivos que refutaban esas creencias. Y lo mejor: con pruebas.

Se trata, en otras palabras, de un chatbot - un programa informático para mantener una conversación - que puede entablar una conversación profunda y personalizada.

El diario español El País realizó una prueba en la que presentan al chatbot con la teoría que relaciona migración y criminalidad, a lo que la IA responde, "primero con empatía, agradece la cuestión y entiende que es de actualidad", para ofrecer inmediatamente "información que podría aportar un punto de vista diferente". Ahí es cuando el chatbot presenta un conjunto de pruebas, estudios y argumentos que finaliza diciendo que "los inmigrantes, a menudo, contribuyen al crecimiento económico, inician nuevos negocios y aumentan la vitalidad de las comunidades, lo que puede conducir a tasas de criminalidad más bajas".

El programa "responde a cada uno de los prejuicios, bulos, falsedades que se le presenten, ya sean informaciones con intención de engañar -misinformation - como información sesgada intencionadamente para manipular - desinformación", detallan desde El País tras probar la aplicación.

Una forma eficaz de mitigar información falsa

"Los modelos de IA tienen acceso a una tonelada de información sobre diversos temas, han sido entrenados y, por lo tanto, tienen la capacidad de contraargumentar con hechos teorías particulares que la gente cree”, dice Thomas Costello, profesor de psicología en la Universidad Americana (Washington), investigador del MIT y uno de los tres autores del estudio.

El estudio concluye que esta IA "redujo las creencias en teorías conspirativas" de los participantes en un 20 por ciento de media, desde las clásicas que involucraban el asesinato de John F. Jennedy, los Illuminati, hasta las relacionadas con el COVID-19 y las elecciones de EE. UU de 2020, lo que "pone en entredicho las investigaciones que sugieren que dichas creencias son inmunes al cambio", destaca.

"En contraste con la visión pesimista, una conversación relativamente breve con un modelo de IA generativa puede producir una disminución significativa y sólida de las creencias, incluso entre las personas con convicciones profundamente arraigadas”.

Tal y como destacan desde Science, la creencia generalizada en teorías conspirativas sin fundamento es una "fuente importante de preocupación pública y un foco de investigación académica", pues, aunque parezcan bastante inverosímiles, se cree en muchas de estas teorías conspirativas de forma amplia.

En psicología se sugiere que muchas personas quieren adoptar teorías conspirativas con tal de satisfacer "necesidades” o motivaciones psíquicas subyacentes, por lo que es muy complicado convencer a estas personas que abandonen esas creencias infundadas o inverosímiles utilizando pruebas. Que una inteligencia artificial sea capaz de ello abre la puerta a inumerables posibilidades.

Editado por Andrea Ariet con información de la revista Nature, Science y El País.