La paradoja de la IA: una herramienta tanto para la desinformación como para combatirla
Las tecnologías de IA, con su capacidad para generar textos, imágenes, audio y vídeos falsos que parecen reales (los llamados "deepfakes"), hacen más difícil distinguir los contenidos auténticos de las creaciones sintéticas
Videos mostrando a Donald Trump cometiendo un delito, llamadas anónimas en las cuales la voz de Joe Biden invita a sus partidarios a no participar en las elecciones primarias, mensajes y audios de Whatsapp en los cuales políticos europeos se muestran a favor del racismo o una transmisión en la cual la presidenta electa de México, Claudia Sheinbaum, denuncia fraude en las elecciones que la llevaron a la presidencia, éstos son sólo algunos ejemplos de cómo la inteligencia artificial (IA) se está usando para generar caos político y desinformación.
La proliferación de la inteligencia artificial (IA) en la era digital trajo consigo innovaciones notables y retos únicos, especialmente en el ámbito de la integridad de la información, convirtiéndose tanto en un arma, en las manos de personas con oscuros intereses, como en un escudo contra la desinformación, en manos de periodistas y fact-checkers o verificadores.
Las tecnologías de IA, con su capacidad para generar textos, imágenes, audio y vídeos falsos que parecen reales (los llamados "deepfakes"), hacen más difícil distinguir los contenidos auténticos de las creaciones sintéticas. Esta capacidad permite a los agentes maliciosos automatizar y multiplicar campañas de desinformación, aumentando enormemente su alcance e impacto.
“Los deepfakes, o manipulaciones de medios digitales utilizando IA para crear contenido falso y realista, plantean riesgos significativos durante los periodos electorales. Estos riesgos incluyen la desinformación, la manipulación de imágenes y videos, y el aumento de la polarización”, explica el abogado William Llanos, docente de la carrera de Derecho de la Universidad Franz Tamayo, Unifranz.
El experto señala que la desinformación se materializa mediante la creación de discursos falsos, entrevistas inventadas o declaraciones ficticias de candidatos, lo cual puede llevar a una desinformación masiva.
“Por otra parte, la manipulación de imágenes y videos genera imágenes falsas que pueden parecer auténticas, lo cual puede influir en la percepción del público sobre un candidato, afectando su imagen y credibilidad. Por último, la difusión de deepfakes diseñados para avivar la polarización política puede exacerbar las tensiones y contribuir a la fragmentación de la sociedad”, agrega.
Las consecuencias de la desinformación incontrolada impulsada por la IA son profundas y pueden erosionar el tejido mismo de la sociedad.
El Informe sobre Riesgos Globales 2024 del World Economic Forum (WEF) señala a la difusión de información errónea y la desinformación como graves amenazas en los próximos años, destacando el posible aumento de la propaganda y la censura nacionales.
“El uso político malintencionado de la IA plantea graves riesgos, pues la rápida propagación de deepfakes y contenidos generados por IA dificulta cada vez más a los votantes a discernir la información factual de la falsa. Eso puede influir en el comportamiento de los votantes y socavar el proceso democrático, influenciando elecciones, erosionando la confianza pública en las instituciones, generando malestar social e incluso incentivando la violencia”, explica el informe.
Sin embargo, el WEF indica que la inteligencia artificial no es un villano en esta historia.
“La tecnología también desempeña un papel crucial en el combate contra la desinformación. Los sistemas avanzados de IA pueden analizar patrones, uso del lenguaje y contexto para ayudar en la moderación de contenidos, comprobar si las noticias son falsas y detectar información errónea y desinformación”, expresa la organización internacional.
Entender la diferencia entre la difusión involuntaria de información errónea y la desinformación intencional es fundamental para implementar contramedidas efectivas, lo cual puede ser facilitado mediante el análisis de contenidos con IA.
Al establecer sistemas integrales, los desarrolladores pueden asegurar que la IA se utilice de manera ética y responsable, fomentando la confianza y promoviendo su uso beneficioso en diversos campos.
Además de las medidas técnicas, es crucial proporcionar educación pública sobre alfabetización mediática y pensamiento crítico para empoderar a las personas a navegar el complejo panorama de la información digital.
“A medida que la IA sigue transformando nuestro mundo, es imperativo avanzar en nuestro enfoque de la seguridad digital y la integridad de la información”, explica la organización.
Mediante una colaboración más estrecha, la innovación y la regulación, podemos maximizar los beneficios de la IA mientras nos protegemos de sus riesgos, asegurando un futuro donde la tecnología fortalezca la confianza pública y los valores democráticos en lugar de debilitarlos.
Llanos señala que este problema necesita una solución integral, que incluya estrategias jurídicas como la penalización de la desinformación y la imposición de regulaciones que exijan transparencia en la propaganda, así como estrategias tecnológicas, como el desarrollo de herramientas precisas para detectar imágenes generadas con IA, tal como lo hace el gigante tecnológico Meta.
“Para abordar estos riesgos, es posible implementar diversas estrategias jurídicas. Una de ellas implica la regulación a través de legislación específica que prohíba la creación y distribución de deepfakes con la intención de influir en los procesos electorales. Asimismo, se propone la penalización de la desinformación, así como la implementación de regulaciones que exijan la transparencia en la publicidad política en línea. Además, es importante considerar la implementación de tecnologías de detección de deepfakes, las cuales permitirían identificar y mitigar la propagación de contenido manipulado, como ya vienen implementado los creadores de las grandes redes sociales”, concluye.