Skip Navigation
  • Inicio
  • Nuestro trabajo
  • research reports
  • Cómo detectar y defenderse de la información electoral engañosa generada por la inteligencia artificial

Explicativo

Cómo detectar y defenderse de la información electoral engañosa generada por la inteligencia artificial

Las prácticas comprobadas de verificación de datos ayudarán a reducir la eficacia y divulgación de información electoral engañosa. 

Publicado: Mayo 16, 2024
Illustration of ballot into ballot box
Moor Studio/Getty
Ver la serie entera La inteligencia artificial y la democracia

Suscríbete aquí al nuevo boletín informativo del Brennan Center en español 

La inteligencia artificial (IA) generativa ya se está usando para engañar y confundir al público durante las elecciones de 2024, con lo cual resulta imperativo que el electorado tome medidas para identificar imágenes, videos, audios y otros contenidos falsos creados para influir engañosamente en la opinión política.

Si bien la desinformación electoral ha existido durante toda nuestra historia, la IA generativa amplifica los riesgos. Incrementa la magnitud y sofisticación de los engaños digitales y anuncia la aparición de un nuevo lenguaje sobre conceptos técnicos en torno a la detección y autenticación que ahora el electorado debe aprender a manejar.

Por ejemplo, al principio del auge de la inteligencia artificial generativa en 2023, una industria casera de artículos instaba al electorado a convertirse en detectores amateurs de contenidos ultrafalsos, o deepfakes, e identificar imágenes con manos distorsionadas y sombras desalineadas. Pero, a medida que algunas herramientas de IA generativa superaron estas primeras fallas y errores, esas instrucciones adquirieron un mayor potencial para engañar a futuros detectives que tratan de descubrir contenidos falsos generados por IA. 

Otros desarrollos nuevos le plantean diferentes problemas al electorado. Por ejemplo, las principales compañías de IA generativa y de redes sociales han empezado a colocar etiquetas identificativas en sus contenidos que permiten rastrear su origen y sus cambios a través del tiempo. Sin embargo, los importantes vacíos en su uso y la facilidad de eliminar algunas etiquetas implican que el electorado aún corre el riesgo de ser víctima de engaños y confusión. 

Debido a la rapidez de los cambios en esta tecnología, los expertos no han llegado a un consenso para elaborar reglas precisas para cada situación que sea posible. Pero, para la ciudadanía de hoy, aquí presentamos los consejos más importantes: 

  • Emplear prácticas comprobadas para evaluar contenidos, tal como buscar contexto confiable de los servicios más creíbles de verificación de datos para imágenes, videos, audios y también sitios web poco conocidos. 
  • Evaluar con cautela todo contenido que tenga una alta carga emocional, sea sensacionalista o sorprendente. 
  • No obtener información electoral proveniente de chatbots de inteligencia artificial generativa y motores de búsqueda que utilizan sistemáticamente la IA generativa. En cambio recurrir a fuentes confiables como los sitios web de las oficinas electorales. 
  • Asumir la responsabilidad cuando se comparten contenidos políticos que puedan haber sido generados por IA. 

Elaborar mejores prácticas para evaluar contenidos. 

Para navegar este nuevo panorama con efectividad, el electorado debería adoptar una mirada crítica tanto hacia la información que consumen como hacia sus fuentes. Cuando ven imágenes, videos o audios sensacionalistas, información nueva sobre la votación o detalles sobre el proceso electoral provenientes de cuentas o sitios web poco conocidos o no verificados, el electorado debería:  

  • Evaluar la legitimidad y credibilidad de los contenidos; investigar el contexto de una fuente puede ayudar a evitar la malinterpretación o manipulación del contenido.  
  • Ir directamente a un sitio de verificación de datos independiente y confiable —como PolitiFact, AP Factcheck o cualquier otro sitio verificado por la Red Internacional de Verificación de Datos (International Fact-Checking NetworkIFCN por sus siglas en inglés)— o a la Base de datos de incidentes de inteligencia artificial(Artificial Intelligence Incident Database) administrada por la organización Responsible AI Collaborative para intentar verificar la autenticidad de los contenidos o enviar contenidos a estos sitios o bases de datos para su verificación. 
  • Usar motores de búsqueda no es el mejor primer paso, porque a veces muestran contenidos incorrectos según el historial de búsqueda de la persona usuaria. 
  • Evaluar los contenidos que tienen una alta carga emocional con una mirada crítica y minuciosa, ya que este tipo de contenidos puede afectar nuestro juicio y volvernos más susceptibles a la manipulación. 
  • Mantener un enfoque equilibrado a la hora de evaluar la información electoral. Si bien es necesario tener cierto grado de escepticismo hacia algunos contenidos en internet relacionados con las elecciones, un análisis excesivo de imágenes o videos genéricos puede ser contraproducente, porque brinda a los individuos malintencionados más oportunidades para desacreditar la información auténtica. 

Las mejoras en la inteligencia artificial implican que habrá menos pistas para detectarla. 

No alentamos al electorado a pasar tiempo buscando “indicios” o errores visuales, como manos deformadas, una piel tan tersa que parece imposible o sombras desalineadas. Las herramientas de IA generativa están mejorando y ahora pueden evitar estos errores; por ejemplo, a mediados de 2023, gracias a una actualización de software de Midjourney —una herramienta muy conocida para la creación de imágenes por IA—, se mejoró significativamente la calidad de la herramienta para crear manos humanas. Por supuesto que, si un error visual se nota claramente, el electorado debería mostrarse más escéptico hacia esa imagen o video y buscar más contexto y verificación. 

Buscar etiquetas que marcan el contenido como manipulado. 

A medida que los estados se apresuran para regular los contenidos ultrafalsos, el electorado debería familiarizarse con la terminología utilizada para indicar que un contenido es artificial o generado por la IA.

Las nuevas leyes estatales de Nueva York, Washington, Míchigan y Nuevo México, por ejemplo, limitan la divulgación de contenidos políticos ultrafalsos generados por la IA, porque exigen usar advertencias en algunos contenidos sintéticos relacionados con las elecciones. Por lo general, estas leyes requieren que los descargos de responsabilidad o advertencias tengan frases parecidas a: “este [video, imagen o audio] ha sido manipulado”. 

Considerar la información sobre la “procedencia de contenidos”, pero comprender sus limitaciones. 

Las nuevas normas buscan darle al electorado información sobre la creación y el historial de modificaciones de imágenes, videos y audios, pero las principales compañías de redes sociales y motores de búsqueda aún no las han adoptado ampliamente.

Meta y Google han señalado que pronto comenzarán a aplicar estas normas y credenciales, pero aún no lo han hecho sistemáticamente. Varias compañías importantes también han firmado la Coalición para la Procedencia y Autenticidad del Contenido (Coalition for Content Provenance and AuthenticityC2PA por sus siglas en inglés), una norma técnica abierta para rastrear el origen de los contenidos.

Pero, incluso después de la incorporación inicial de estas normas, hasta que las principales compañías, por ejemplo, no integren estas credenciales de contenidos en sus cámaras de teléfonos celulares de un modo sistemático y universal, el electorado no puede contar con que la ausencia de cualquier información sobre la procedencia le ayude a desacreditar la autenticidad de un contenido.

Además, muchas herramientas de IA generativa —en especial, las que son de “código abierto”, es decir que tienen su código fuente y otros datos disponibles al público— no se regirán por estas normas ni permitirán que se deshabiliten estas funciones con facilidad, lo cual limita la utilidad de estas normas para los votantes. 

Si logramos una amplia implementación de la información sobre la procedencia de contenidos —que podrían ser etiquetas desplegables colocadas en una imagen o un video que explican cómo se creó y editó a través del tiempo—, el electorado debería adoptar las siguientes medidas generales a la hora de evaluar información:  

  • Cuando la información sobre la procedencia indica que un contenido político ha sido visualmente manipulado, buscar más contexto para ayudar a verificar la fuente. 
  • Cuando la información sobre la procedencia es inválida o inexistente, no suponer automáticamente la autenticidad ni falsedad del contenido. Buscar más información y contexto para verificar la fuente. 
  • A menos que el contenido se haya marcado con una etiqueta clara de una plataforma de redes sociales que diga, por ejemplo, “creado por IA,” no depender exclusivamente de la información sobre la procedencia para confirmar o desmentir la autenticidad de un contenido político. Tratar la procedencia como una de las varias herramientas disponibles para verificar contenidos, entre ellas, consultar sitios creíbles de verificación de datos. 

No depender exclusivamente de las herramientas de detección de IA. 

En general, el electorado no debería depender de las herramientas de detección de contenidos ultrafalsos para confirmar o desacreditar la autenticidad de contenidos políticos, porque estas herramientas tienen una precisión limitada. Además, es probable que la efectividad de estas herramientas de detección aumente y disminuya a medida que las herramientas de generación de contenidos de IA se vuelvan más sofisticadas. 

Si una persona votante decide usar una herramienta de detección de contenidos ultrafalsos, debería usar una que deje en claro su posibilidad de error y señale con transparencia el nivel de confianza de sus análisis, por ejemplo, indicando el porcentaje de probabilidad de precisión. El sitio TrueMedia.org ofrece este tipo de herramientas, pero aún no está disponible para todo el público.

Mostrar cautela al usar motores de búsqueda que integran la IA generativa y sus chatbots.  

Algunos motores de búsqueda como Microsoft Copilot y Perplexity integran la IA generativa en sus respuestas. Estos motores de búsqueda crean un riesgo para las personas usuarias cuando los usan para buscar información sobre las elecciones. 

Las respuestas de Microsoft Copilot a preguntas básicas sobre ciertas elecciones globales estaban repletas de errores, según pudo revelar un estudio de 2023. Otro estudio reciente también sugiere que los chatbots de IA más conocidos —como Gemini de Google, GPT-4 de OpenAI y Llama 2 de Meta—pueden dar respuestas incorrectas a preguntas simples sobre las elecciones.

Si bien estos chatbots a veces redirigen a las fuentes oficiales de información electoral, es mejor ir directamente a una fuente confiable para buscar información precisa, tal como el sitio web electoral de su condado, el sitio web de la Asociación Nacional de Secretarías de Estado o a vote.gov

Google ha comenzado a experimentar con la integración de la IA generativa en algunos resultados de búsqueda a través de un panel de “Resumen de IA” en la parte superior de la página de resultados de la búsqueda. Cuando se trata de información electoral, la ciudadanía no debería confiar en estos resúmenes de la IA.

Pero, por lo general, sí pueden confiar en un panel de conocimiento de Google sobre información electoral cuando realizan una búsqueda sobre las elecciones que no está basada en la IA generativa.  

Por último, el electorado debería actuar con responsabilidad a la hora de compartir sus propias creaciones de IA o las de otras personas. Deberían evaluar el potencial que tienen de causar daño o propagar información errónea antes de compartir contenidos de IA generativa, poner descargos de responsabilidad para contenidos políticos generados por IA y verificar la precisión de la información en varias fuentes confiables antes de compartirla. 

En última instancia, el gobierno y las compañías tecnológicas deben tomar medidas para facilitarle la tarea a la ciudadanía. Pero, ante la ausencia de medidas adecuadas, las estrategias aquí mencionadas les ofrecen a las personas votantes un camino para defenderse mejor a sí mismas y a los demás de los engaños exacerbados por la IA generativa durante las elecciones de 2024. 

Traducción de Ana Lis Salotti.