Skip Navigation
  • Inicio
  • Nuestro trabajo
  • research reports
  • El riesgo de la supresión del voto potenciada por la inteligencia artificial

Resumen de expertos

El riesgo de la supresión del voto potenciada por la inteligencia artificial

Las herramientas de la inteligencia artificial (IA) podrían hacer más fácil que nunca llevar a cabo campañas diseñadas para suprimir el voto.

Publicado: Abril 16, 2024
Illustration of person with speech bubble saying "Fake," and a phone screen
Chris Burnett
Ver la serie entera La inteligencia artificial en las elecciones y su impacto en la democracia

Suscríbete aquí al nuevo boletín informativo del Brennan Center en español  

Esta es una versión abreviada del artículo en inglés que se puede consultar aquí.

Justo antes de las elecciones primarias de 2024 en New Hampshire, se registró una serie de llamadas automáticas en las que una voz pregrabada se hacía pasar por la del presidente Joe Biden, aconsejándole al electorado que no participara en una campaña de nominación directa a favor de Biden y recomendándole que “se guardara el voto” para las elecciones generales.

Este fue el primer caso conocido en que se empleó la inteligencia artificial con su capacidad de clonar la voz de una persona a una escala considerable y con la intención de desalentar al electorado de participar en una elección estadounidense.

Luego, un operativo político admitió haber encargado la ejecución de la artimaña; se supo que crear el audio falso costó apenas $1 y llevó menos de 20 minutos. Es casi seguro que nuestras elecciones futuras estén plagadas de intentos similares, a medida que la rápida aceptación y desarrollo de las herramientas de la IA generativa siguen su curso acelerado. 

Este fenómeno no es totalmente nuevo: la supresión del voto a través de la desinformación tiene una larga historia en los Estados Unidos. Desde el momento en que las personas estadounidenses negras y de otras etnicidades y razas consiguieron formalmente su derecho al voto, siempre hemos tenido maleantes que han cometido actos de terrorismo para intimidar al electorado y han ejercido presión para aprobar leyes electorales restrictivas que crearon obstáculos injustificables en la votación.

Estos esfuerzos de supresión del voto han adquirido la forma de engaños para impedir el voto legítimo de las minorías desde hace al menos 25 años. Del mismo modo, muchísimas personas antagonistas a la democracia estadounidense han eliminado a votantes elegibles de las listas de registro de votantes, o padrones electorales, especialmente a votantes de las minorías

Desde la era de la Reconstrucción hasta la era digital, estas estrategias han persistido y evolucionado, pero siempre han retenido ciertos elementos centrales, aun cuando las tecnologías y plataformas nuevas han permitido focalizar sus esfuerzos con más precisión y rapidez para dirigirlos a determinados grupos de votantes.

La IA tiene la capacidad de intensificar estos riesgos, darles una nueva vida a las artimañas de antaño y agregar más obstáculos para el derecho al voto. La IA generativa crea la posibilidad de utilizar métodos de engaño más sofisticados, capaces de ser utilizados con un costo mucho más bajo, una velocidad mucho más alta y a una escala mucho más amplia.

El potencial persuasivo de la IA también puede aumentar con el tiempo, a medida que las actuales limitaciones tecnológicas son rápidamente superadas y se fusionan diferentes tipos de IA en formas nuevas. Algunos tipos de sistemas de IA les permitirá a las personas que niegan los resultados de las elecciones y otros tipos de negacionistas presentar impugnaciones masivas privadas en contra del estado de inscripción de miles de votantes con mayor eficiencia, y hasta quizá con menos transparencia y una nueva apariencia de legitimidad falsa.

Si bien no queda claro en qué medida la IA cambiará el panorama de la supresión del voto durante las elecciones generales de 2024, los nuevos desarrollos en el uso y las capacidades de la IA dan un renovado sentido de urgencia para continuar con los esfuerzos incesantes de aplacar la subversión electoral. Estos desarrollos exigen intervenciones políticas nuevas y sólidas para minimizar los peligros que se divisan en el horizonte de la democracia.

La nociva historia de los intentos de supresión del voto

Siempre ha habido maleantesque han empleado tácticas para intentar suprimir el voto en los Estados Unidos, a menudo dirigidas específicamente contra comunidades de personas de bajos ingresos, negras, inmigrantes y otras comunidades marginalizadas. 

Hace décadas que hay maleantes circulando información falsa sobre cómo, cuándo y dónde votar. También han propagado alegaciones infundadas sobre las consecuencias adversas, como el arresto o la deportación, que les pueden acontecer a los grupos de votantes elegibles que ejercen su derecho al voto. 

Históricamente, estos engaños se materializaban en forma de folletos y otros materiales impresos colocados en los lugares físicos donde acostumbraba a acudir el electorado y, luego, en forma de llamadas automáticas pregrabadas (robocalls) y otros tipos de comunicación masivos. 

Por ejemplo, el día de las elecciones primarias presidenciales de 2020 en el estado de Texas, se realizaron llamadas automáticas pregrabadas en las que se informaba al público falsamente que la votación se iba a llevar a cabo un día después, con la intención de engañar al electorado para que, cuando la gente vaya a emitir un voto legítimo, ya sea demasiado tarde.

Ahora, en la era digital, hay maleantes que promueven por internet cada vez más falsedades sobre el proceso electoral con una microfocalización específica, es decir, que se focalizan específicamente en votantes de determinadas características demográficas con mucha más precisión para contiendas electorales locales, estatales y federales. Este tipo de engaños suelen basarse en temas comunes y recurrentes de información errónea sobre el proceso y la práctica de votación. 

En las elecciones de 2018 y 2020, circularon alegaciones falsas por internet, directamente dirigidas a las comunidades latinas, que decían que iba a haber agentes del Servicio de Inmigración y Control de Aduanas (ICE) vigilando los sitios de votación.

Otros intentos de supresión del voto se basan en métodos de engaño alternativos, por ejemplo, cuando un maleante adopta una identidad falsa que se parece a la raza de su objetivo para aprovecharse de las posibles dudas del electorado sobre la eficacia política de su voto y alentarlos a boicotear las elecciones. 

En algunos casos, las personas que diseminan desinformación se les hace responsables por sus esfuerzos de supresión del voto de conformidad a las leyes existentes que prohíben la intimidación de votantes y la interferencia electoral. Sin embargo, otra incalculable cantidad de personas que difunden información errónea sobre la votación pasan inadvertidas ante la ley.

La ley federal sí restringe las llamadas automáticas pregrabadas de carácter político que se realizan con un software de marcación automática. Tal como lo aclaró hace poco la Comisión Federal de Comunicaciones (FCC), la ley federal también restringe el uso de la IA con capacidades de clonación de voz en las llamadas. La FCC publicó una decisión declaratoria en la que clasificaba las voces generadas por IA y utilizadas en las llamadas automáticas pregrabadas como “artificiales” y, por lo tanto, regidas por las leyes existentes.

Pero las compañías y los operativos pueden realizar llamadas automáticas pregrabadas —incluso aquellas que utilizan la generación de voces mediante IA— a consumidores y votantes con su expreso consentimiento previo. La ley federal también sigue permitiendo llamadas automáticas pregrabadas de carácter político a teléfonos fijos —incluso aquellas que utilizan IA para clonar la voz— sin consentimiento previo. (Las personas estadounidenses mayores de 65 años siguen utilizando teléfonos fijos muchísimo más que otros grupos). Y sigue siendo relativamente fácil que el electorado termine dando su consentimiento sin querer para recibir llamadas automáticas pregrabadas de carácter político. 

Las purgas y las impugnaciones ilegítimas también pueden funcionar como una forma de supresión del voto. En teoría, las purgas de votantes son una manera de limpiar las listas de registro de votantes, porque así se eliminan votantes no elegibles de los padrones electorales. Las jurisdicciones a veces realizan purgas ilegítima o irresponsablemente o sin contar con datos precisos.

La mayoría de los estados también permiten que una persona privada presente impugnaciones contra la elegibilidad de votantes registrados antes del día de las elecciones o ese mismo día; estas reglas se han aprovechado desde siempre para eliminar específicamente a votantes elegibles de las minorías

En los últimos años, diversos grupos activistas —a menudo movilizados por negacionistas de elecciones, políticos y expertos afines— han inspeccionado los padrones electorales junto con otras fuentes incompletas y defectuosas de información externa con el objetivo de corroborar alegaciones falsas de fraude electoral e impulsar impugnaciones masivas de registros de votantes.

La Ley del Registro Nacional de Votantes (National Voter Registration Act, NVRA, por sus siglas en inglés) y otras leyes estatales y federales establecen las normas de base para llevar a cabo purgas de votantes, pero se necesitan más salvaguardas para reducir el riesgo de la privación errónea o engañosa del derecho al voto. 

Durante los últimos años, Georgia aprobó una ley que aumenta las probabilidades de tener casos de privación ilegítima del derecho al voto al confirmar que cualquier persona registrada para votar en el estado puede presentar una cantidad ilimitada de impugnaciones contra la elegibilidad de otros votantes. La incidencia de purgas de votantes también se incrementó en los años posteriores a que la Corte Suprema haya destrozado una serie de protecciones esenciales de la Ley de Derecho al Voto en el infame caso Shelby County v. Holder.

La amenaza potenciada de la IA

En las próximas elecciones, es posible que los negacionistas de elecciones empleen sistemas de IA para provocar investigaciones falsas, intentar impugnar la elegibilidad de enormes cantidades de votantes y conceder una falsa sofisticación a los intentos de corroborar alegaciones infundadas de un fraude electoral generalizado. Estos temores no son solo especulaciones.

En Georgia, un grupo de activistas presentó impugnaciones contra casi 100,000 inscripciones de votantes, entre ellos, votantes sin vivienda y votantes con problemas de salud que tuvieron que salir rápidamente a defender su derecho al voto o renunciar a él. 

En un condado de Georgia, una organización presentó impugnaciones contra la elegibilidad de más del 6 por ciento de toda la población votante registrada del condado y, como consecuencia, las autoridades electorales locales, que ya estaban sobrecargadas de trabajo, tuvieron que validar decenas de miles de votantes antes de las elecciones.

Las herramientas de la IA tienen la capacidad de reforzar estos esfuerzos de supresión del voto y les conceden una mayor credibilidad que no se merecen.

Para presentar impugnaciones, los grupos de activistas ahora están usando EagleAI, aparentemente una herramienta basada en algoritmos de la IA que dice poder identificar inscripciones sospechosas de votantes mediante el análisis automatizado de datos sobre votantes que compara contra bases de datos públicos de calidad variada y a veces cuestionable —tal como “obituarios de funerarias extraídos o adquiridos” (que también pueden ser clickbaits, o ciberanzuelos, falsos generados por IA), códigos de uso del terreno, “direcciones comerciales extraídas”, información del Departamento de Salud, datos penitenciarios y así sucesivamente— recolectados y cotejados de diversos sitios web o importados a través de canales privados e integrados al sistema de EagleAI. 

EagleAI también acelera el proceso de preparar formularios de presentación de impugnaciones contra votantes, porque permite hacerlo con tan solo unos pocos clics. Mediante herramientas como EagleAI, los maleantes pueden presentar impugnaciones masivas a una escala alarmante y a partir de pruebas incompletas, sin verificar o de baja calidad. 

Según una demostración, EagleAI también guarda los formularios de presentación de impugnaciones y permite presentarlos el último día posible de aceptación de impugnaciones, lo cual sobrecargaría a las autoridades electorales justo antes de una elección y reduciría el tiempo que tendrían disponible para evaluarlas. 

Al menos un condado en Georgia ha aprobado hace poco el uso de EagleAI para realizar el mantenimiento de los padrones electorales, lo cual significa que esta herramienta no solo la puede utilizar el ciudadano privado, sino que también puede desempeñarse como un árbitro oficial defectuoso durante la evaluación de estas mismas impugnaciones. 

Estos esfuerzos potenciados de quitarle al electorado su elegibilidad se están sucediendo delante de otro telón de fondo alarmante: en 2018, se suspendió un decreto por consentimiento que había sido firmado hace décadas y le había impedido al Comité Nacional Republicano concentrarse indebidamente en votantes de las minorías cuando presentaba impugnaciones.

La ley federal incorpora algunas salvaguardas para proteger al electorado de la privación de su derecho al voto cuando las agencias utilizan la comparación de datos de diferentes fuentes para realizar el mantenimiento de las listas de registro de votantes y verificar su identidad. 

Pero las capacidades, complejidades y opacidades de los sistemas de la IA empleados para analizar este tipo de datos plantean riesgos incalculables: sin que sus proveedores brinden explicaciones más detalladas sobre qué implican estos algoritmos, puede ser difícil (cuando no imposible) para las personas usuarias, observadores, autoridades gubernamentales y reguladores evaluar o comprender los resultados que arrojan estos sistemas.

Es crucial que se tomen más medidas para proteger al electorado elegible contra la privación ilegítima de su derecho al voto. EagleAI —y el posible desarrollo y proliferación de otras herramientas de IA parecidas— pueden aumentar significativamente la cantidad de impugnaciones presentadas contra votantes y purgas realizadas en 2024 y en los años venideros. 

Ya sean maleantes o ciudadanos confundidos, cualquiera puede utilizar estas herramientas para sembrar la duda sobre la elegibilidad de innumerables votantes tanto antes del día de las elecciones como ese mismo día. Estos esfuerzos podrían desbordar a las autoridades electorales que ya están sobrecargadas y no permitirles atender al electorado como corresponde en un momento crítico del proceso electoral. 

Nuevos peligros en 2024 y de cara al futuro

Aún queda por verse qué tan importante será el rol que desempeñe la IA generativa en los esfuerzos de supresión del voto a través de la desinformación durante las elecciones de 2024, pero abundan las posibilidades preocupantes tanto para 2024 como para el futuro. 

La IA generativa puede cambiar la velocidad, escala y sofisticación de las prácticas engañosas tradicionales utilizadas en los intentos de supresión del voto. 

En los peores escenarios imaginables, en 2024, ya sea antes o durante el día de las elecciones, se podrían crear con rapidez y muy bajos costos audios o videos ultrafalsos generados por la IA y luego compartirlos para inventar falsas emergencias en los centros de votación, mostrar engañosamente equipos de votación o buzones de devolución de boletas dañados, o revelar falsamente cómo trabajadores electorales les impiden votar a personas elegibles. 

Se podrían emplear chatbots de IA generativa para difundir falsedades sobre dónde, cuándo y cómo votar a una velocidad y escala inmensamente aceleradas. 

Las campañas de desinformación podrían generar montones de contenidos producidos por la IA para manipular con mayor eficacia los algoritmos de recomendación que muestran los contenidos en las redes sociales, de manera que estas falsedades sobre el proceso electoral hagan tendencia y se vuelvan virales.

También se podría aprovechar la IA generativa para suplantar la identidad de sitios web electorales oficiales con más rapidez y a una mayor escala para publicar engaños sobre el proceso de votación.

Asimismo, se podrían emplear sistemas de IA para interactuar directamente con el electorado, combinando sintetizadores de voz y marcadores automáticos, explotando las plataformas encriptadas de las redes sociales o creando chatbots personalizados para fomentar el desinterés por votar o la desilusión con la democracia estadounidense.

La IA generativa puede aumentar el poder persuasivo de las campañas de desinformación a nivel individual. Los sistemas interactivos de IA pueden adaptarse en tiempo real a las respuestas de cada persona votante; con el suficiente tiempo y los suficientes datos, podrían ser entrenados para calcular los mejores argumentos persuasivos personalizados según las posturas de cada interlocutor o para predecir el estado emocional de la persona votante con más precisión al poder analizar su tono o sus gestos.

Los desarrolladores de la IA podrían emplear la técnica del aprendizaje por refuerzo para crear algoritmos más efectivos durante los ciclos de campaña a través de la repetición de interacciones con la misma persona votante. Los sistemas también podrían optimizarse para explotar las características raciales, étnicas, religiosas o demográficas de otra índole a través de técnicas de microfocalización mejoradas.

Para las elecciones de 2024 y de cara al futuro, cabe destacar que las campañas de influencia extranjera que llevan a cabo actividades de supresión del voto pueden ser importantes beneficiarios potenciales de los avances en la IA generativa. 

Se sabe que varios adversarios de los EE. UU. han intentado interferir con las elecciones estadounidenses, a veces con el propósito de reducir la participación en las elecciones y desalentar el voto de ciertos grupos.

Por ejemplo, los análisis efectuados por el Comité del Senado sobre Inteligencia y el Proyecto de Investigación de Propaganda Computacional de Oxford revelaron que Rusia intentó suprimir la participación del electorado negro durante las elecciones de 2016 aprovechándose de las plataformas de las redes sociales, creando contenidos diseñados para avivar las tensiones raciales, alentando al electorado negro a seguir procedimientos de votación falsos y recomendándole que boicotee las elecciones.

Este tipo de campañas no solo las lleva a cabo Rusia: también ha habido operaciones de inteligencia sobre personas votantes estadounidenses lanzadas por China, Irán, Corea del Norte, Arabia Saudita y otras potencias mundiales. 

La IA generativa podría intensificar las campañas de influencia extranjera de varias formas. Este tipo de herramientas bajan el costo de los engaños digitales masivos, lo cual, a su vez, podría aumentar la magnitud de esos esfuerzos. Los contenidos también podrían volverse más sofisticados y difíciles de detectar.

Las operaciones de antes respaldadas por Rusia y otras organizaciones de influencia extranjera a menudo se basaban en la duplicación masiva y producían contenidos plagados de malas traducciones, errores gramaticales y frases idiomáticas incorrectas. Las herramientas sofisticadas de la IA generativa seguramente ayuden a mitigar esos defectos y permitan hacer que los contenidos producidos masivamente por las fábricas de desinformación sean menos disonantes, más variados y, por lo tanto, menos detectables y quizá más convincentes.

Las campañas de influencia han utilizado las primeras repeticiones de la tecnología de la IA generativa desde hace varios años para producir artificialmente fotos de perfil de personas inexistentes en cuentas de bots. Pero, a comienzos de 2023, un medio de comunicación estatal de China celebró su debut de presentadores de noticias virtuales creados con videos generados por IA, y las cuentas de bots simpatizantes del gobierno chino compartieron videos de estos presentadores de TV generados por IA para una organización de noticias falsas que difunde propagandas políticas.

Microsoft anunció en septiembre de 2023 que había detectado operaciones sospechosas de influencia extranjera que utilizaban imágenes generadas por IA y, a comienzos de este mes, reveló que varios actores afiliados al gobierno chino están ahora diseminando contenidos generados por IA diseñados para sembrar la división interna en los Estados Unidos y otras naciones. 

Dicho de otro modo, el empleo de herramientas más sofisticadas de la IA generativa por parte de los gobiernos y sus grupos simpatizantes para manipular el mundo de la información política no solo es inminente, sino que ya está ocurriendo.

Soluciones

Enmendar las leyes sobre prácticas engañosas.

La Ley de Prevención de Prácticas Engañosas e Intimidación a Votantes (Deceptive Practices and Voter Intimidation Prevention Act) es un proyecto de ley a nivel federal bien diseñado para ponerles freno a los intentos de supresión del voto que impliquen la difusión deliberada de información falsa sobre cuándo, cómo y dónde votar con la intención de impedir o desalentar el voto dentro de los 60 días anteriores a una elección federal. 

Existen otras leyes similares a nivel estatal que prohíben la propagación de información falsa sobre el registro de votantes, el momento, el lugar y el modo de votar en Kansas, Minnesota y Virginia, por ejemplo; y otros estados también están evaluando aprobar este tipo de legislación.

Si bien estos proyectos y leyes sobre prácticas engañosas podrían interpretarse de modo que abarquen algunas de las actividades de supresión del voto propulsadas por la IA generativa, un pequeño agregado en el texto de estas leyes y proyectos de ley podría ayudar a asegurarnos de hacer responsables ante la ley a aquellas personas que desarrollan intencionalmente sistemas de IA diseñados para engañar al electorado sobre el proceso de votación, como así también a aquellas personas cuyas herramientas de IA luego comunican información falsa sobre cuándo, cómo y dónde votar.

Como primera medida, toda legislación debería incluir expresamente el desarrollo y difusión intencional de herramientas de IA. Además, según varias leyes y proyectos de ley existentes que abordan el tema de las prácticas electorales engañosas, para responsabilizar a quienes engañan al electorado sobre el proceso de votación se requiere que sus autores sepan que están comunicando una información falsa. 

Pero, debido a que muchos creadores de IA malintencionados pueden no tener el conocimiento actualizado sobre la falsedad de cada uno de los contenidos producidos por sus algoritmos, se deberían enmendar las actuales leyes y proyectos de ley sobre prácticas engañosas y eliminar todo requisito que exija a los desarrolladores de IA generativa poseer el conocimiento preciso de cada información falsa para considerarse responsables ante la ley; la mínima norma legal debería ser poseer el conocimiento de que la herramienta está diseñada para producir información falsa.

Restringir la difusión de más contenidos generados por la IA que pongan en peligro el derecho al voto.

Las leyes estatales y federales también deberían prohibir o restringir la propagación de contenidos sintéticos visuales o de audio —incluidos los generados por IA que muestren falsamente máquinas de votación, equipos de votación o buzones de devolución de boletas dañados o defectuosos; inventen desastres o emergencias en los sitios de votación; o expongan falsamente a trabajadores electorales que parecen estar impidiendo u obstaculizando la votación—, cuando dichos contenidos se hayan creado o difundido con la intención de desalentar o impedir el voto dentro de los 60 días anteriores al día de las elecciones.

Mientras que muchas leyes y proyectos de ley sobre contenidos ultrafalsos se han centrado en el uso de contenidos ultrafalsos generados por la IA que dañan la reputación de las personas candidatas y sus probabilidades de ganar elecciones, los contenidos ultrafalsos que amenazan el derecho al voto ameritan la misma atención de quienes elaboran nuestras leyes y seguramente gocen de una menor protección constitucional de libertad de expresión. 

Al igual que lo hace la Ley de Prevención de Prácticas Engañosas e Intimidación a Votantes, este tipo de leyes deberían obligar a las fiscalías generales de los estados a publicar información correctiva precisa en cuanto reciban una denuncia creíble de que se están difundiendo contenidos para suprimir el voto, si las autoridades electorales no actúan como corresponde para educar al electorado según sea necesario.

Además, estas leyes no deberían limitarse únicamente al contenido generado por la lA, sino que deberían abarcar también todos los contenidos visuales y de audio creados con una asistencia importante de medios técnicos, como Photoshop, imágenes generadas por computadora y otras herramientas informáticas.

Exigir la identificación y otras regulaciones para ciertos contenidos generados por tecnologías de chatbots o distribuidos por bots.

Se ha puesto mucha atención en el Congreso y las legislaturas estatales en torno a la identificación o la regulación de otro tipo de los contenidos visuales y de audio generados por la IA (incluidos los contenidos ultrafalsos) en el marco de las elecciones. Pero la tecnología detrás de los chatbots de la IA plantea riesgos diferentes, en especial cuando se trata de la supresión del voto a través de la microfocalización que explota determinadas características y las conversaciones interactivas de la IA que manipula a su interlocutor.

El uso de la tecnología de los grandes modelos de lenguaje (LLM, es decir, la tecnología en que se basan los chatbots de la IA generativa) por parte de las campañas y comités políticos también plantea posibles riesgos para nuestra democracia, por ejemplo, si un chatbot de la IA generativa realiza promesas al público votante que no están vinculadas a la verdadera plataforma de una campaña política.

Las leyes estatales y federales deberían obligar a las campañas y comités políticos y a las personas contratadas a identificar todo contenido que haya sido creado utilizando la tecnología de los grandes modelos de lenguaje (LLM). 

Este tipo de requisitos de identificación y otros esfuerzos regulatorios deberían centrarse en los contenidos generados por IA y difundidos por bots cuando los bots se hacen pasar o fingen engañosamente ser un humano; en conversaciones interactivas basadas en los LLM que se pueden mantener entre campañas políticas, comités de acción política (PAC) y el electorado, tanto por internet como en llamadas automáticas; en el uso de LLM por parte de las campañas políticas y los PAC para comunicarse con el electorado con una supervisión y control humanos mínimos; y en las comunicaciones generadas por IA que provienen de las campañas políticas y los PAC y se focalizanespecíficamente en votantes con determinadas características demográficas o según ciertos datos de comportamiento.

Regular el uso de la IA para impugnar votantes y purgar padrones electorales.

La ley NVRA dispone importantes límites sobre las purgas de votantes, pero se necesitan más salvaguardas para proteger al electorado de falsas impugnaciones de votantes y del abuso de la IA para presentar impugnaciones de votantes y eliminar a votantes de los padrones electorales. El Congreso y las legislaturas estatales deberían establecer requisitos de base que rijan el uso oficial de los sistemas de la IA para eliminar a votantes de los padrones.

Para defendernos de la ilegítima privación del derecho al voto, las legislaturas y los organismos gubernamentales deberían establecer normas mínimas de precisión, confiabilidad y calidad de los datos con los que se entrenan los sistemas de IA utilizados para asistir a las autoridades gubernamentales a efectuar purgas de votantes. 

Asimismo, deberían exigir que sea el personal humano el que revise todas las decisiones que se tomen con la asistencia de la IA antes de eliminar a un votante de los padrones. 

Además, las legislaturas estatales y las autoridades gubernamentales deberían realizar cambios en los procedimientos y requisitos de impugnación. En los estados que permiten que una persona privada presente impugnaciones de elegibilidad, se debería proteger al electorado de toda impugnación infundada, establecer requisitos para presentar documentación y pruebas que respalden una impugnación e imponer restricciones sobre la aceptabilidad de las pruebas. 

Como punto de partida, quienes elaboran políticas federales y estatales deberían prohibir el uso de bots para realizar impugnaciones automatizadas contra la inscripción de votantes ante oficinas electorales. Los estados también deberían requerir que las impugnaciones privadas estén basadas en el conocimiento de primera mano sobre la posible inelegibilidad de un votante, lo cual no incluye el uso de la IA u otras modalidades automatizadas de comparación de bases de datos.

Restringir ciertos tipos de sistemas de la IA que violan la privacidad y autonomía de las personas y posibilitan formas sofisticadas de manipulación de votantes.

El Congreso y las legislaturas estatales podrían regular la creación y el empleo de ciertos sistemas de la IA de alto riesgo cuando estos se utilicen para influir en las elecciones y en el voto de la ciudadanía, incluso aquellos sistemas que emplean técnicas subliminales, reconocen emociones, llevan a cabo controles de datos biométricos y utilizan datos biométricos para categorizar a las personas, por ejemplo, en grupos raciales.

También deberían limitar el uso de la IA para manipular al electorado, influir en su comportamiento o infringir sus intereses de privacidad o autonomía personal. Una forma de hacerlo sería creando un régimen de certificación para el uso de las herramientas de la IA con estas capacidades de manipulación en contextos sensibles.

Reforzar la regulación de las llamadas automáticas pregrabadas de carácter político.

Quienes elaboran políticas deberían reforzar la regulación de las llamadas automáticas pregrabadas de carácter político para proteger más al electorado de los intentos de engaño potenciados por la IA. 

Como se mencionó antes, la FCC hace poco confirmó que las leyes existentes abarcan las llamadas automáticas que contienen voces generadas por la IA, pero sigue habiendo importantes vacíos legales.

Quienes elaboran leyes estatales y federales deberían resolver estos vacíos legales que permiten realizar llamadas automáticas pregrabadas de carácter político —incluso las que utilizan sistemas de marcación automática y voces generadas por la IA— a teléfonos fijos sin el consentimiento previo del destinatario.

Los encargados de formular políticas públicas también deberían aclarar que el consentimiento de recibir llamadas automáticas políticas con voces generadas por IA debe incluir un aviso claro sobre el uso de la IA generativa y demostrar que la persona comprende que se va a utilizar la IA generativa (en lugar de dar el consentimiento más general de recibir una llamada política de una determinada organización).

Además, quienes confeccionan nuestras leyes deberían obligar a las empresas de telefonía y fabricantes de teléfonos celulares a integrar herramientas de alta calidad que puedan detectar las llamadas con voces generadas por la IA y alertar a sus clientes sobre la alta probabilidad de estar recibiendo una llamada automática generada por IA.

Dar apoyo a las oficinas electorales en sus esfuerzos de educar al electorado y protegerlas de los intentos de suplantación de identidad y hackeo.

Las oficinas electorales pueden implementar varias medidas para reducir los riesgos que plantean los intentos mejorados por la IA de engañar a la población sobre el proceso de votación. 

La mayoría de los sitios web de las oficinas electorales del país no tienen un dominio .gov—un dominio de internet que solo pueden utilizar las entidades gubernamentales verificadas de los Estados Unidos—, aun cuando algunos actores fraudulentos han suplantado la identidad de los sitios web de las oficinas electorales para engañar al electorado, una estrategia que podría hacerse más común con la proliferación de las herramientas de la IA generativa.

Migrar estos sitios web a dominios .gov y educar al electorado sobre la importancia de este dominio son formas simples de aumentar la credibilidad de los sitios web oficiales de las oficinas electorales. La provisión de fondos federales y un mayor apoyo del gobierno podría facilitar esta importante medida, que puede ayudar a las autoridades electorales a adelantarse y desacreditar narrativas falsas recurrentes sobre el proceso electoral antes de que se propaguen masivamente, publicando materiales y recursos accesibles.

Las oficinas electorales deberían promover la difusión de mensajes sobre la solidez de las salvaguardas existentes en la seguridad de las elecciones en sus sitios web: un método que se ha demostrado que aumenta la confianza en el proceso electoral más allá de la afiliación política.

También deberían mantener páginas de control de rumores actualizadas en sus sitios web, elaborar planes de comunicación en casos de crisis para contrarrestar rumores virales que amenacen con desalentar el voto de cara a las elecciones o el día de las elecciones, y establecer redes en las comunidades de difícil acceso para diseminar información precisa y oportuna sobre cómo votar.

Aprobar la Ley de Libertad para Votar.

La IA amplifica los miles de desafíos que enfrentan nuestras elecciones desde hace mucho tiempo, y la supresión del voto no es la excepción. Si bien no aborda directamente los riesgos de la IA, laLey de Libertad para Votar (Freedom to Vote Act) que ha sido propuesta en el Congreso protegería al electorado y a la administración electoral, porque les concedería una amplia gama de protecciones fundamentales contra la supresión del voto.

Estas medidas incluyen protecciones contra purgas de votantes indebidas. También prohibiría ciertas prácticas engañosas que podrían privarle a la ciudadanía de su derecho al voto porque incorpora la Ley de Prevención de Prácticas Engañosas e Intimidación a Votantes.

Traducción de Ana Lis Salotti.