Skip Navigation
Análisis

El chatbot Grok de Elon Musk disemina información falsa sobre las elecciones

A usuarios de la red social X se le dijo falsamente que la vicepresidenta Harris no podía ascender a candidata a presidenta para el partido demócrata.

AI and Democracy
Flavio Coelho/Getty
Ver la serie entera La inteligencia artificial y la democracia

Suscríbete aquí al boletín informativo del Brennan Center en español

Cuando el presidente Biden se retiró de la contienda presidencial, muchos se preguntaron si era demasiado tarde para que los estados colocaran a una nueva persona candidata en la boleta del partido demócrata. Esta no era una pregunta difícil de responder: como lo han explicado muchísimas autoridades electorales y expertos, en realidad Biden no había sido nominado todavía, por lo tanto, no habría ningún impedimento legal ni práctico para que su reemplazo, la vicepresidenta Harris, figure en la boleta una vez que se la nomine formalmente.

Sin embargo, Grok, el chatbot de inteligencia artificial que está disponible en X (antes Twitter), les dijo falsamente a sus usuarios que el plazo ya había pasado en varios estados, según lo informó este domingo el Washington Post.

Un grupo de autoridades electorales estatales de los estados afectados hicieron un llamamiento a X para que implementara cambios a fin de evitar que Grok brindara información imprecisa al electorado. Grok no es el único proveedor de información errónea ni mucho menos; otros chatbots de inteligencia artificial (IA) han generado información falsa o engañosa cuando la gente les pregunta cómo o cuando votar o se han negado a decir quién ganó las elecciones de 2020.

Pero, como lo han indicado las autoridades electorales, otras compañías tecnológicas se han esforzado por corregir o mitigar las imprecisiones, por ejemplo, dirigiendo a cualquiera que haga ciertas preguntas sobre las elecciones a fuentes autorizadas y no partidarias, como CanIVote.org.

Si bien estas medidas no son suficientes en absoluto, sí reflejan un claro contraste con el enfoque que ha tomado X, cuyo chatbot repitió estas falsedades durante más de una semana hasta que, por fin, se corrigió el problema.

Desafortunadamente, este tipo de desastres con la IA generativa no es la única instancia de divulgación de información engañosa sobre las elecciones con la que se ha asociado este año al propietario de X, Elon Musk.

El último viernes, CNBC informó que un supercomité de acción política (súper-PAC) financiado por Musk —America PAC— invirtió más de $800,000 en avisos publicitarios, muchos de los cuales aparentemente fueron diseñados para recabar datos sobre votantes, en ocasiones con premisas falsas. Estos avisos alentaban a la gente a visitar el sitio web de America PAC e insinuaban que podían usar este sitio para registrarse para votar.

Según algunos informes publicados, a las personas que colocaban códigos postales de estados no competitivos se las dirigía al sitio web de registro de votantes de su estado, pero a las personas que indicaban que vivían en Georgia, Míchigan, Pensilvania u otro estado pendular se les mostraba un formulario del sitio de America PAC para que coloquen información más personal, como su dirección, su número de teléfono móvil y su edad. Después de enviar la información, aparecía una página de agradecimiento que no ofrecía ninguna ayuda real sobre cómo registrarse para votar.

La ley federal prohíbe todo tipo de conspiraciones que le impidan a alguien registrarse para votar. Muchos estados protegen al electorado contra ciertos tipos de engaños. De hecho, las autoridades públicas estatales de Míchigan y Carolina del Norte están investigando si America PAC violó alguna ley estatal. (Quizá como respuesta a todo esto, el sitio web ya no incluye un enlace para registrarse para votar). No queda claro si el sitio web de America PAC incumple con alguna ley estatal o federal. Pero sí les hizo más difícil a las autoridades electorales promover información precisa sobre las elecciones y socavó el acceso al voto. Si alguien que visitó este sitio web piensa erróneamente que se han registrado para votar cuando enviaron su información en el formulario, quizá no pueda votar cuando llegue a su sitio de votación y se entere de que el plazo para registrarse ya pasó.

La divulgación de falsedades sobre las elecciones —entre ellas, la más prominente en torno a la negación de los resultados de las elecciones presidenciales de 2020— continúa amenazando la democracia estadounidense, impulsando leyes electorales restrictivas, fomentando ataques contra el personal electoraldebilitando la confianza en las elecciones.

A fin de cuentas, la mejor forma de proteger a la población votante elegible de las prácticas engañosas y otros esfuerzos de impedirle votar es que el Congreso apruebe la Ley de Libertad para Votar (Freedom to Vote Act) y la Ley para Promover el Derecho al Voto de John R. Lewis (John R. Lewis Voting Rights Advancement Act), dos proyectos de ley exhaustivos que establecen las normas nacionales básicas para el acceso al voto, como el registro automático de votantes y el registro de votantes el mismo día de las elecciones, y protecciones uniformes contra el engaño y la intimidación de votantes.

La Ley de Libertad para Votar también incluye una serie de reformas sobre la financiación de campañas políticas para ponerles freno a grupos como America PAC que pueden recaudar incalculables cantidades de dinero de megadonantes multimillonarios y suelen trabajar en colaboración con los candidatos que apoyan. Estos proyectos de ley estuvieron muy cerca de recibir la aprobación durante la última sesión del Congreso y deben ser una importante prioridad en 2025.

También hay otras medidas específicas que el Congreso y las legislaturas estatales pueden adoptar para resolver específicamente el problema de los contenidos engañosos creados por l IA durante las elecciones. Las legislaturas deberían exigir que todo contenido creado por la IA generativa incluya marcas de agua y que las campañas políticas y los PAC indiquen cada vez que utilicen la tecnología de la IA generativa para interactuar con el electorado.

Un nuevo análisis del Brennan Center demuestra que, si bien las legislaturas estatales han estado aprobando leyes para regular el uso de la IA, estas se han concentrado casi en su totalidad en la posibilidad de utilizar los contenidos ultrafalsos, o deepfakes, en las comunicaciones políticas. Los próximos proyectos de ley deberían priorizar los intereses de las personas votantes y procurar resolver los daños más profundos causados por la información falsa que permite divulgar la tecnología de la IA.

Tal como lo demuestran los acontecimientos de la semana pasada, las compañías tecnológicas que desarrollan herramientas de IA y se benefician de ellas deben tomar medidas más firmes para evitar que sus herramientas engañen al electorado. Entre otras cosas, deberían asegurarse de que sus chatbots dirijan a la persona usuaria a fuentes de información electoral acreditadas, colocar en los contenidos generados por IA marcas que le permitan al público conocer el origen de esos contenidos, establecer reglas contra el uso de sus herramientas para engañar al electorado o suprimir el voto y hacerlas cumplir.

Por último, en vista de la inacción del gobierno y la falta de responsabilidad de algunas plataformas tecnológicas, resulta aún más imperativo que las personas votantes usen fuentes acreditadas para comprender los procesos electorales, conozcan más sobre las opciones que tienen en sus propios estados para votar y confirmen que son elegibles para votar y se registren. El Brennan Center y otros grupos están trabajando arduamente para brindar información precisa sobre las elecciones y proteger la democracia estadounidense.

Traducción de Ana Lis Salotti.