Es probable que los primeros años de la década de 2020 sean recordados como el comienzo de la era de los contenidos ultrafalsos, o deepfake, en el contexto de las elecciones.
La inteligencia artificial (IA) generativa tiene ahora la capacidad de imitar a líderes políticos electos y otras figuras públicas de un modo muy convincente. Las herramientas de IA pueden sintetizar contenidos de audio con la voz de cualquier persona y generar imágenes y videos realistas de casi todo el mundo haciendo lo que sea, contenidos que luego se pueden distribuir a gran escala mediante otras herramientas de IA, como los chatbots.
La proliferación de contenidos sintéticos (los creados o modificados a través de la inteligencia artificial y otros medios automatizados) como son los ultrafalsos y otros similares, plantea retos muy particulares para el funcionamiento de las democracias, porque este tipo de comunicaciones puede privar al público de la información precisa que necesita para tomar decisiones informadas durante las elecciones.
Durante los últimos meses, se han utilizado contenidos ultrafalsos en repetidas ocasiones para engañar al público sobre ciertas declaraciones y medidas que han realizado algunos líderes políticos. Estos contenidos engañosos pueden ser particularmente amenazantes durante el período previo a una elección, cuando hay poco tiempo para desacreditarlos antes de que se difundan y el electorado acuda a las urnas.
Para citar un ejemplo, en unas grabaciones de audio ultrafalsas unos pocos días antes de las elecciones de Eslovaquia en octubre de 2023, Michal Šimečka, líder del partido Eslovaquia Progresista que favorece vínculos con Europa y Norteamérica, supuestamente dijo que iba a manipular los resultados de las elecciones y duplicar el precio de la cerveza. Estas grabaciones ultrafalsas se hicieron virales en las redes sociales.
Otros audios ultrafalsos que circularon poco antes de las elecciones contenían descargos de responsabilidad, o “disclaimers”, que advertían que habían sido generados por IA, pero estos descargos solo aparecían luego de los primeros 15 segundos en clips de audio que duraban 20 segundos. Al menos un investigador ha afirmado que colocar estos descargos de responsabilidad tan adentrado el contenido fue un intento deliberado de engañar al público.
El partido político de Šimečka terminó perdiendo una elección muy reñida, donde ganó su opositor, que favorece vínculos con Rusia, y algunos analistas especularon que estos contenidos ultrafalsos que circularon tan cerca de las elecciones afectaron el voto final.
En los Estados Unidos, aún falta un año para las elecciones de 2024, pero hay candidatos del Partido Republicano que ya están utilizando IA en sus publicidades de campaña.
El caso más notorio lo protagonizó el gobernador de Florida Ron DeSantis cuando su campaña publicó imágenes generadas por IA del expresidente Donald Trump abrazando a Anthony Fauci, quien se ha convertido en el mayor objetivo de críticas entre votantes del partido republicano durante las primarias por las políticas de mitigación de covid-19 que promovió Fauci.
Dada la velocidad sorprendente con la que se han desarrollado contenidos ultrafalsos y otros contenidos sintéticos (es decir, aquellos que se crean o modifican a través de medios automatizados, como la IA) durante tan solo el último año, podemos prever la aparición de aún más comunicaciones engañosas sofisticadas en las contiendas políticas durante los meses y años venideros.
Como respuesta a esta amenaza que no para de evolucionar, congresistas y legisladores estatales de todo el país ya han propuesto leyes para reglamentar la IA.
Al momento de publicación de este informe, un grupo de congresistas de los dos partidos políticos han presentado por lo menos cuatro proyectos de ley que abordan el uso de contenidos ultrafalsos y otros contenidos manipulados específicamente en las elecciones federales, y al menos otros cuatro que lo abordan en términos más generales.
A nivel estatal, se han aprobado leyes nuevas que prohíben o restringen de alguna otra forma los contenidos ultrafalsos y otros contenidos engañosos utilizados en publicidades electorales y anuncios políticos durante las elecciones en estados tan diversos ideológicamente como California, Minnesota, Texas y Washington.
Es posible que las entidades reguladoras estatales y federales también tomen medidas. Hace poco, por ejemplo, el grupo de defensa de derechos civiles Public Citizen presentó una petición ante la Comisión Federal de Elecciones (FEC) para que enmienden sus reglamentaciones y se prohíba el uso de contenidos ultrafalsos por parte de candidatos en determinadas circunstancias.
Sin embargo, aun si las personas encargadas de formular políticas trabajan para actualizar leyes y reglamentaciones de cara a la aparición de una clase nueva y más avanzada de contenidos manipulados, también deben ser conscientes de una serie de consideraciones de contrapeso.
La más importante de estas consideraciones es que los contenidos manipulados, en ocasiones, pueden desempeñar una función legítima, real y no de carácter engañoso, como cuando se crean contenidos satíricos, artísticos o de análisis político. Estas formas de expresión poseen valor inherente y, en los Estados Unidos, gozan de una protección jurídica importante según la primera enmienda de lal constitución.
La ley federal especifica que hasta el engaño más descarado que no tenga valor artístico que lo justifique ni cualquier otro propósito legítimo, aunque suele gozar de una menor protección constitucional, no puede prohibirse simplemente porque sí. El gobierno igual debe proporcionar una justificación independiente cuando intente imponer alguna restricción y demostrar que esa restricción ha sido confeccionada a cabalidad según su objetivo establecido.
Estas limitaciones no son razón suficiente como para rehuir la obligación de promulgar nuevas reglas sobre contenidos manipulados, sino que, cuando se las elabore, las personas a cargo deben asegurarse de tener objetivos claros y bien articulados. Además, deben confeccionar las nuevas reglas con detenimiento para cumplir con esos objetivos sin restringir indebidamente otras formas de expresión.
La primera parte de este recurso informativo define los términos “contenido ultrafalso, o deepfake”, “contenido sintético” y “contenido manipulado” en más detalle. La segunda parte presenta algunas consideraciones necesarias para quienes formulan políticas, a saber:
- Los argumentos más convincentes que justifican la reglamentación de contenidos ultrafalsos y otros contenidos manipulados en el mundo de la política. En general, la necesidad de propiciar un electorado informado y de salvaguardar la integridad global del proceso electoral son dos de los argumentos más convincentes que justifican la regulación de contenidos manipulados en la esfera política.
- El tipo de comunicaciones que deberían regularse. Las regulaciones deberían aplicarse tanto a las imágenes y audios, como a los videos sintéticos. Las personas a cargo de confeccionar las reglas deben concentrarse en restringir o limitar de alguna otra manera toda representación de acontecimientos o declaraciones que, en realidad, no ocurrieron, en especial cuando aparecen en anuncios pagos de campañas políticas y otras categorías determinadas de publicidad paga u otros tipos de comunicaciones de amplia difusión. Todas las reglas nuevas deberían tener exclusiones claras para los contenidos paródicos, las noticias y posiblemente otras formas de expresión protegidas.
- Cómo se deberían reglamentar esos contenidos. Las reglas de transparencia —que, por ejemplo, exigen que se coloque con claridad alguna marca identificando el contenido como artificial en toda imagen o grabación de audio manipulada para que no se entienda como la representación de un hecho real— serán, por lo general, las más fáciles de justificar en los tribunales de justicia. Pero no siempre bastará la transparencia; quienes elaboran las leyes también deben considerar la posibilidad de prohibir por completo ciertas categorías de contenidos manipulados, tales como materiales de audio y video que buscan engañar a la población sobre cuándo, dónde y cómo votar.
- A quiénes deberían dirigirse esas regulaciones. Tanto las prohibiciones como los requisitos de transparencia menos restrictivos deben estar dirigidos principalmente a quienes crean o distribuyen contenidos engañosos, aunque también puede tener sentido regular a las plataformas donde se transmiten esos contenidos ultrafalsos.