Skip Navigation
Análisis

Cómo la inteligencia artificial amenaza las elecciones libres y justas

La inteligencia artificial no perturbó las elecciones de 2024, pero es probable que sus efectos sean mayores en el futuro.

AI
Imagine Photographer/Getty
  • La aparición de videos, imágenes y audios manipulados, o deepfake, generados por IA que mostraban falsedades sobre candidatos políticos y acontecimientos ya está influenciando el ecosistema de la información.
  • Sin una acción decisiva, las prácticas engañosas impulsadas por la IA podrían convertirse en una característica constante en las campañas políticas y erosionar así las bases mismas de la gobernanza democrática.

Suscríbete aquí al boletín informativo del Brennan Center en español

El período inmediatamente previo a las elecciones de 2024 estuvo marcado por predicciones que advertían que la inteligencia artificial (IA) podía tener efectos dramáticos. Los peores pronósticos —como los que presagiaban grandes campañas de desinformación y ataques contra la infraestructura electoral, todo asistido por la IA— nunca ocurrieron. Pero la aparición de videos, imágenes y audios ultrafalsos o deepfake, generados por IA que mostraban falsedades sobre candidatos políticos y acontecimientos ya está influenciando el ecosistema de la información.

Con el tiempo, el uso inapropiado de estas herramientas erosiona la confianza del público en las elecciones, porque hace más difícil distinguir la realidad de la ficción, intensifica la polarización y debilita la confianza en las instituciones democráticas.

Para comprender y abordar las amenazas que plantea la IA, debemos considerar sus efectos inmediatos sobre las elecciones en los EE. UU., como así también sus implicaciones más generales y a largo plazo.

Incidentes como las llamadas automáticas o robocalls durante las elecciones primarias en New Hampshire, en las que una voz generada por IA se hacía pasar por el presidente Biden y urgía a los votantes a no votar, capturaron la atención nacional, tanto como las campañas de información errónea orquestadas por chatbots como el llamado Grok de la plataforma de redes sociales X.

Un grupo de operativos rusos creó varios contenidos ultrafalsos generados por IA de la vicepresidenta Kamala Harris, como un video de amplia circulación en el que Harris aparecía, falsamente, haciendo comentarios incendiarios y que fue compartido por el multimillonario tecnológico Elon Musk en la red X.

Por otro lado, un exagente de sheriff del condado de Palm Beach, que ahora opera desde Rusia, colaboró en la producción y difusión de videos falsos, incluido uno en el que se acusaba falsamente al candidato a vicepresidente y gobernador de Minnesota, Tim Walz, de cometer actos de agresión.

Surgieron numerosas historias como estas en todo el mundo. En las elecciones generales de 2024 en India, varios contenidos ultrafalsos generados por IA en los que aparecían famosos criticando al primer ministro Narendra Modi y apoyando a los partidos de la oposición se hicieron virales en plataformas como WhatsApp y YouTube.

Durante las elecciones presidenciales de 2022 en Brasil, se utilizaron contenidos ultrafalsos y bots para difundir narrativas políticas falsas en varias plataformas como WhatsApp. Si bien no se han identificado efectos directos ni cuantificables sobre los resultados de las elecciones, estos incidentes ponen de manifiesto el creciente rol que está desempeñando la IA a la hora de influir en el discurso político.

La diseminación de contenidos ultrafalsos y la desinformación automática puede erosionar la confianza, acentuar las divisiones políticas e influenciar la percepción del electorado. Estas dinámicas, si bien son difíciles de medir, podrían tener importantes implicaciones para la democracia, a medida que los contenidos generados por IA se vuelven más sofisticados y generalizados.

Las consecuencias a largo plazo de la desinformación impulsada por el uso de la IA no se limitan únicamente a la erosión de la confianza: crean un panorama donde la mismísima verdad se cuestiona. A medida que los contenidos ultrafalsos y manipulados se vuelven más sofisticados, cualquier actor malintencionado puede explotar la confusión creada, descartar hechos reales como falsos y enturbiar el debate público.

Este fenómeno, a veces llamado “dividendo del mentiroso”, permite que cualquiera —políticos, corporaciones u otras figuras influyentes— evada la responsabilidad al poner en duda hechos auténticos. Con el tiempo, esta incertidumbre debilita las instituciones democráticas, fomenta la falta de interés y vuelve a las sociedades más vulnerables a la manipulación tanto de actores nacionales como de adversarios extranjeros.

Estos riesgos cada vez más grandes ponen en relieve la urgente necesidad de contar con una mayor transparencia y rendición de cuentas. Las plataformas de redes sociales y los desarrolladores de IA deben implementar medidas para divulgar los orígenes del contenido generado por IA.

La colocación de marcas de agua y otras herramientas que determinan la procedencia del contenido puede ayudarle al electorado a distinguir la información auténtica de los contenidos manipulados. Además, las plataformas deben volver a invertir en equipos encargados de garantizar la confianza y la seguridad, muchos de los cuales fueron reducidos significativamente, dejando vacíos importantes en el control de contenidos que los actores malintencionados están ansiosos por explotar.

Sin embargo, hay otros desafíos más allá de los que enfrentan las plataformas públicas. Las plataformas encriptadas como WhatsApp y Telegram —a las que un número creciente de personas recurre para enterarse de las noticias— agregan un nuevo nivel de complejidad, ya que su diseño restringe el control.

La rápida propagación de la desinformación generada por IA mediante estos canales nos recuerda las lecciones aprendidas de elecciones pasadas, como la contienda presidencial de 2016, donde la falta de control y transparencia apropiados hizo que la magnitud de la interferencia extranjera en nuestras elecciones solo se hiciera evidente años después.

Este tema se centra en torno a una pregunta más profunda: ¿cómo preservamos la integridad de los sistemas democráticos en una era de rápidos cambios tecnológicos? Para salvaguardar las elecciones, se necesitará un enfoque multidimensional, que incluya medidas legislativas para requerir una mayor transparencia, campañas de educación al votante e iniciativas de colaboración entre compañías tecnológicas, entidades encargadas de elaborar políticas y organizaciones de la sociedad civil.

No basta con reaccionar ante las amenazas a medida que surgen: debemos resolver de manera proactiva las vulnerabilidades sistemáticas que permiten que la interferencia impulsada por la IA se propague.

Una solución posible es la creación de directrices éticas para los desarrolladores de IA, tomando como modelo las normas utilizadas en otras industrias como en la atención de la salud y el sector financiero. Por ejemplo, el sector de salud se ha regido desde hace mucho tiempo mediante protocolos que priorizan la seguridad del paciente, mientras que el sector financiero aplica regulaciones para prevenir el fraude y gestionar los riesgos sistémicos.

Si bien estos marcos no son infalibles, sí brindan las bases para posibilitar la rendición de cuentas y la mitigación de daños. Del mismo modo, las directrices éticas para la IA podrían incluir requisitos de mitigación de riesgos en contextos sensibles desde el punto de vista político, como la colocación de marcas claras sobre contenidos ultrafalsos y avisos políticos que fueron generados por IA para aumentar la transparencia y la confianza. Las plataformas que contienen o difunden contenidos ultrafalsos también deberían ser regulados para que cumplan con estos estándares.

Desde contenidos ultrafalsos donde aparecen altos funcionarios hasta campañas de información errónea diseñadas para manipular a los votantes, la desinformación impulsada por la IA ha expuesto las vulnerabilidades críticas que tiene nuestro sistema democrático. Para resolver estas amenazas, se requiere mucho más que medidas reactivas; se necesita una respuesta urgente coordinada.

Las plataformas de redes sociales, los desarrolladores de IA y quienes elaboran políticas deben actuar ya mismo para implementar requisitos de transparencia, reforzar las protecciones de confianza y seguridad, y establecer mecanismos de rendición de cuentas para los contenidos generados por IA.

Sin una acción decisiva, las prácticas engañosas impulsadas por la IA podrían convertirse en una característica constante en las campañas políticas y erosionar así las bases mismas de la gobernanza democrática. La integridad de las elecciones depende del reconocimiento y la confrontación de este desafío antes de que se convierta en una norma irreversible.

Traducción de Ana Lis Salotti.