Skip Navigation
Análisis

El efecto de la inteligencia artificial sobre las elecciones en todo el mundo y qué se puede hacer al respecto

La inteligencia artificial se está usando para el bien y para el mal y las regulaciones deben considerar ambos usos.

Junio 6, 2024
Man looking at AI televisions
cyano66/Getty
Ver la colección entera AI and Elections

Suscríbeteaquí al nuevoboletín informativodel Brennan Centerenespañol

Mientras más de 50 países se preparan para celebrar sus elecciones este año, los contenidos generados por la inteligencia artificial (IA) ya han comenzado a desempeñar numerosos roles en las campañas políticas, desde los más nefarios hasta los más inocuos y positivos.

A seis meses de las elecciones generales en los EE. UU., es relevante analizar el uso de la IA en las elecciones más importantes que se realizarán este año alrededor del mundo, ya que este análisis nos brinda, como estadounidenses, la oportunidad de comprender mejor qué esperar en nuestras propias elecciones y cómo deben prepararse nuestras autoridades electorales, legisladores y la sociedad civil.


Claramente, la tecnología de la IA tiene el potencial de exacerbar los desafíos en las elecciones, por ejemplo, en cuanto a la divulgación de desinformación y la exposición a vulnerabilidades cibernéticas en los sistemas electorales. Los gobiernos y la sociedad civil deben trabajar para empoderar al electorado contra estas amenazas. 

Algunas de las tácticas incluyen medidas inmediatas, como publicitar información correctiva y fortalecer las salvaguardias en línea y la legislación correspondiente, por ejemplo, restricciones más fuertes sobre publicidades políticas engañosas transmitidas por internet. Sin embargo, mientras hacen todo esto, quienes elaboran nuestras políticas y los grupos de defensa deben considerar los distintos usos de la IA en el proceso político y poner en práctica enfoques matizados que se centren en las peores consecuencias sin restringir indebidamente la libertad de expresión política.

Los peligros que plantea la IA para el proceso político se han vuelto cada vez más evidentes en Estados Unidos y muchos otros países. A comienzos de este año, por ejemplo, se hicieron llamadas automáticas, o robocalls, generadas por IA, que imitaban la voz del presidente Biden, se dirigían específicamente al electorado de New Hampshire y le desalentaba a votar en las elecciones primarias.

También a comienzos de este año, circuló por Twitter una imagen creada por IA en la que se veía al expresidente Trump sentado junto a una joven y a Jeffrey Epstein, condenado por cargos de trata sexual.

Mientras tanto, en el resto del mundo, el año pasado circularon contenidos ultrafalsos, (deepfakes), durante las elecciones de Eslovaquia, que difamaban al líder de uno de los partidos políticos y quizá ayudaron a decidir las elecciones a favor de su oponente pro-Rusia.

En enero, el gobierno de China aparentemente intentó divulgar contenidos ultrafalsos generados por IA para interferir en las elecciones de Taiwán y en Gran Bretaña, está apareciendo una ola de contenidos maliciosos producidos por IA de cara a sus elecciones programadas para el 4 de julio. En uno de esos contenidos ultrafalsos se veía a la reportera de la BBC Sarah Campbell diciendo falsamente que el primer ministro británico Rishi Sunak promovía una plataforma de inversión fraudulenta.

A medida que se aproximaban las elecciones generales en India, se comenzó a usar cada vez más una táctica de campaña en la que se producían contenidos ultrafalsos de políticos conocidos ya fallecidos que apelaban a la población como si aún estuvieran vivos.

Sin embargo, a veces el uso de contenidos ultrafalsos y otras tecnologías de IA se vuelve más complicado.


En Indonesia, por ejemplo, el candidato favorito a presidente, un general retirado, utilizó una caricatura animada de sí mismo generada por IA para parecer más humano y apelar a la juventud. Esto generó algunas críticas dado su rol en la dictadura militar de su país, aunque no hubo un claro intento de engaño.

En Pakistán, el líder de la oposición encarcelado, Imran Khan, utilizó un video generado por IA para dirigirse a sus partidarios, burlando así los intentos de silenciarlo por parte de las fuerzas militares y sus rivales políticos.

En Belarús, la golpeada oposición del país hasta presentó un “candidato” al parlamento generado por IA. El candidato—en realidad, un chatbot descrito como de 35 años y oriundo de Minsk—es parte de una campaña política para ayudar a que la oposición, cuya gran parte se encuentra en el exilio, llegue al electorado bielorruso.

En resumen, si bien los contenidos ultrafalsos y otros contenidos sintéticos creados por IA plantean peligros muy reales para nuestras elecciones, estos también se pueden usar para mejorar la comunicación creativa política.

Quienes elaboran nuestras políticas deben evaluar con cuidado estos intereses contrarios antes de determinar cómo responder al uso de la IA, de modo que puedan contrarrestar las peores consecuencias posibles de un uso engañoso de la IA, sin restringir indebidamente la libertad de expresión política y otras formas de expresión legítimas.

Para empezar, los gobiernos y la sociedad civil deben promover la divulgación de información precisa sobre el proceso electoral, incluso mediante campañas de educación al público para empoderar a la ciudadanía de modo que pueda distinguir la verdad de las falsedades, y mediante la creación de equipos de respuesta rápida que monitoreen y desmientan la información falsa.

De ser posible, estas iniciativas deberían llevarse a cabo en colaboración con las compañías de redes sociales y participantes clave en el proceso electoral, como las personas candidatas y representantes de los partidos políticos.

 
En cuanto a las autoridades electorales que desean adoptar nuevos sistemas de IA para ayudarles a administrar las elecciones, el Brennan Center les recomienda seguir un proceso diligente y transparente para decidir si los van a implementar en cada contexto determinado. Si así lo deciden, deben integrar sistemas efectivos y simples con la supervisión humana necesaria para que se garantice la transparencia y la documentación.

También deben llevar a cabo capacitaciones sólidas para su personal y crear planes de contingencia para resolver posibles errores en los sistemas empleados. Ello debe incluir la realización de revisiones y ajustes periódicos a partir de datos de rendimiento y retroalimentación para garantizar el uso seguro y responsable de las herramientas de IA.

Cuando se elaboran leyes sobre contenidos ultrafalsos y otros contenidos generados por IA en torno a las elecciones, se debe adoptar un enfoque cuidadoso y matizado. Es importante priorizar la transparencia en cuanto a los contenidos manipulados y dañinos, como se observó en varias leyes estatales y proyectos de ley pendientes de tratamiento en el Congreso de EE. UU. Esto ayudará a mantener informado al electorado sobre la autenticidad de los mensajes que recibe y proteger el proceso electoral de las amenazas más significativas.

Sin embargo, en algunos casos, la transparencia no bastará por sí sola, ya que las etiquetas se pueden ignorar o eliminar. Quizá se deban implementar prohibiciones específicas para contenidos especialmente dañinos, como los creados con la intención de confundir y engañar al electorado sobre cuándo, dónde y cómo votar.

A medida que las herramientas de creación de contenidos ultrafalsos se vuelven más sofisticadas y accesibles, estas plantean un riesgo cada vez mayor para el proceso democrático en todo el mundo.

Quienes están a cargo de elaborar políticas deben reconocer la urgencia de esta situación y tomar medidas proactivas para resolver este desafío sin precedentes, al tiempo que continúan respetando la libertad de expresión y el deseo de actores políticos de todas las tendencias de usar métodos novedosos para llegar al público votante.

Traducción de Ana Lis Salotti.