¿Cuáles son los riesgos del uso de la inteligencia artificial en la publicidad política?
El poder de la inteligencia artificial generativa de crear contenido sin seres humanos tiene fallas considerables. Para comenzar, las funciones que permiten que las campañas envíen mensajes eficaces y baratos puede, en manos de personas malintencionadas, usarse para atentar contra la democracia, como suprimir el voto o promover la violencia.
Incluso en las campañas bien intencionadas, la inteligencia artificial no supervisada puede producir mensajes poco originales, parcializados o inexactos.
Falsedades y promesas vanas
Gran parte del debate en los medios en torno a la inteligencia artificial en la política se centra en su capacidad de generar contenido falso o engañoso. En junio de 2023, los titulares reportaron que la campaña presidencial del gobernador de Florida Ron DeSantis difundía imágenes generadas por inteligencia artificial (a veces llamadas ultrafalsas) en las que Donald Trump abrazaba al exgurú del Covid Anthony Fauci. Esta inquietud adquiere nuevas dimensiones debido al hecho que la inteligencia artificial avanza rápidamente en su capacidad de replicar la realidad, lo que dificulta cada vez más que los votantes puedan diferenciar entre el material generado por personas o por inteligencia artificial.
Dada la ausencia actual de reglas sobre la inteligencia artificial, aumenta el temor de que grupos antidemocráticos o personas malintencionadas exploten la tecnología de publicidad con inteligencia artificial para sacar mucha información engañosa en internet. Esta posibilidad es muy probable y destaca la urgencia de crear excelentes sistemas de inspección que puedan detectar rápidamente contenido manipulado o inventado e informar a los votantes.
Sin embargo, desde la perspectiva de las campañas con buenas intenciones, un asunto que ha captado mucha atención en la prensa es la capacidad de la inteligencia artificial de crear contenido falso involuntariamente. Se ha demostrado que las herramientas para generar texto como ChatGPT “alucinan” o inventan información sobre personas o sucesos para cerrar las brechas en su conocimiento. Un candidato a la alcaldía de Toronto usó recientemente imágenes generadas por la inteligencia artificial en un documento sobre su campaña, en el que la persona tenía tres brazos.
Incluso las campañas con las mejores intenciones deben asegurarse de que el contenido generado por la inteligencia artificial evite tales errores, siga siendo exacto y se alinee con sus mensajes planeados. Dada la capacidad de la inteligencia artificial de producir enormes cantidades de contenido, los mensajes con información falsa pueden circular inadvertidos, en particular en campañas con pocos recursos que no cuentan con el personal para examinar todo lo que genera la inteligencia artificial.
Además, las campañas enfrentan el riesgo de que la inteligencia artificial cree confusión sobre sus mensajes principales. La inteligencia artificial redacta mensajes publicitarios que considera son los más adecuados a los intereses y preferencias de los votantes y grupos a los que se dirige.
Al emprender este proceso a favor de diversos grupos de votantes, es probable que las herramientas de inteligencia artificial destaquen diferentes temas o asuntos, e incluso adopten ciertas posiciones al respecto. En pocas palabras, a diferencia de una campaña con un equipo humano, la inteligencia artificial no tiene el mismo nivel de uniformidad interna.
Esta deficiencia resulta ser particularmente problemática para las campañas que se esfuerzan por comunicarse con un público diverso y múltiples grupos de votantes con intereses en conflicto. El reto es mayor a medida que el grado de supervisión humana disminuye, lo que puede hacer que una campaña no esté enterada de todas las afirmaciones y promesas que propaga por medio de anuncios generados por la inteligencia artificial durante un ciclo electoral.
Con el tiempo, es posible que los votantes se decepcionen más con el proceso electoral a medida que se dejen de cumplir las promesas de campaña producidas por la inteligencia artificial. Esto podría disminuir la participación de los votantes en elecciones futuras, pues estos cuestionarán continuamente la sinceridad de cualquier candidato que compite.
Incluso más preocupantes son los casos en que mensajes generados por inteligencia artificial han solicitado donaciones directamente y hecho promesas inventadas. Dichos casos plantean dudas de fraude y crean la posibilidad de que las campañas enfrenten repercusiones legales en el futuro por recaudar fondos bajo promesas falsas.
Prejuicios
En un asunto relacionado, algunas campañas políticas quizá tengan dificultad con los prejuicios inherentes de los sistemas de inteligencia artificial. Ya que esta tiene entrenamiento con datos históricos, enciclopédicos o públicos, sus sistemas absorben todos los prejuicios existentes de los datos generados por seres humanos.
En particular, la inteligencia artificial capacitada con datos del internet, que incluye una cantidad enorme de contenido racista y sexista (entre otros problemas), probablemente genere mensajes racistas y sexistas.
Es más, varios estudios han destacado prejuicios de opinión pública en grandes modelos lingüísticos de uso común. Por ejemplo, si bien ChatGPT con frecuencia repite opiniones libertarias de izquierda, LLaMA de Meta tiende a inclinarse hacia la perspectiva autoritaria de la derecha.
Esta discrepancia representa un verdadero dilema para las campañas que se proponen asegurar que el contenido publicitario generado por la inteligencia artificial responda a valores políticos específicos, pues tal vez no estén informadas de los prejuicios y sean incapaces de supervisar lo que produce la inteligencia artificial a gran escala.
Ignorancia sobre ciertos temas
Otro obstáculo que las campañas pueden enfrentar proviene de las limitaciones de los datos con los que se entrena a las herramientas de la inteligencia artificial. Según un estudio, la inteligencia artificial parece tener dificultad para formular argumentos sobre asuntos políticos que no se comentan mucho en entornos políticos públicos, como la donación de órganos.
Otro estudio notó que nueve de las herramientas más usadas de inteligencia artificial no podían generar contenido que reflejara con exactitud las opiniones políticas de diferentes grupos demográficos en Estados Unidos, a pesar de que se proporcionó información adicional. Esta deficiencia destaca la dificultad que la inteligencia artificial tiene con matices, una faceta importante en la política: las campañas deben poder captar sutilezas en la opinión de los electores y responder a ellas.
Lenguaje genérico
Finalmente, un aspecto negativo que se excluye de la conversación sobre problemas comunes de la inteligencia artificial se centra en la originalidad de los anuncios políticos que genera. Cuando se le pide que los redacte, la inteligencia artificial sintetiza el estilo, tono y contenido de los anuncios presentes en los datos con los que se le ha entrenado.
Este proceso tiende a diluir elementos distintivos, creativos o llamativos que hacen que los anuncios sean singulares, lo que hace que con frecuencia estén repletos de afirmaciones genéricas y carezcan de la novedad y originalidad que las campañas con frecuencia aspiran a trasmitir.
Este asunto se enlaza con el reto continuo del canibalismo de la inteligencia artificial, con el que esta aprende ahora, contenido generado por ella, y así se perpetúan las tendencias de lenguaje repetitivo y poco original que produjo. Si estos anuncios políticos homogenizados terminan inundando las fuentes de noticias, sitios web y canales que ven los votantes, las campañas entonces quizá noten que esos anuncios no captan ni retienen la atención de los votantes.
Para ilustrar estos argumentos, considérese el ejemplo de una de las herramientas más usadas de inteligencia artificial. Le pedimos a ChatGPT que produjera un anuncio para redes sociales con un candidato político ficticio.
El texto del anuncio que generó ejemplifica los siguientes problemas:
- Afirmaciones genéricas. El anuncio contiene slogans políticos genéricos como “un futuro más brillante” y “juntos podemos marcar la diferencia” y carece mayormente de una voz o personalidad singular con la que el público se identifique. Estas fallas demuestran que la personalización a gran escala quizá no sea tan impactante como pareciera ser inicialmente en ciertos contextos.
- Promesas vanas. El anuncio compromete al candidato a proyectos que no se incluyeron en la instrucción , como generar empleos locales y reducir el precio de medicamentos recetados. Dichas promesas crean el riesgo de crear un conflicto entre los votantes y el candidato si este no está preparado o dispuesto a cumplir con ellas en algún momento. Además, en el caso de otras indicaciones que creamos, ChatGPT incluyó en el texto de su anuncio sitios web y handles de redes sociales que no existen, un gran problema para campañas que desean dirigir a quienes ven los anuncios a sitios web verdaderos o a redes sociales.
- Suposiciones parcializadas. Aunque el lenguaje de lainstrucción es neutral, el texto generado supone una posición bastante liberal al enmarcar un voto a favor del candidato como “vote por el progreso” y medidas de política como ofrecer atención médica de bajo precio y una vía para la ciudadanía de los inmigrantes. Las campañas en todo el espectro político deben estar atentas y examinar si las tendencias inherentes de los sistemas de inteligencia artificial se infiltran en sus mensajes.
Que quede claro que estos problemas no son específicos a ChatGPT ni OpenAI. Cuando usamos las mismos indicaciones con diferentes herramientas de inteligencia artificial, produjeron anuncios políticos que sonaban asombrosamente similares, con fallas comparables: afirmaciones genéricas, suposiciones no incluidas en las instrucciones y promesas infundadas. Es imposible predecir exactamente qué tipos de anuncios políticos generarán estas herramientas de inteligencia artificial en el futuro, pero si esta continúa aprendiendo de sí misma, estos problemas no van a desaparecer.