Skip Navigation
Análisis

El uso de la inteligencia artificial amenaza nuestros derechos civiles y oportunidades económicas

El gobierno y las compañías ya usan sistemas de inteligencia artificial que producen resultados plagados de errores y prejuicios que afectan en especial a comunidades inmigrantes y minoritarias.

Noviembre 9, 2023
Finger tapping smartphone
d3sign/Getty
Ver la serie entera La inteligencia artificial en las elecciones y su impacto en la democracia

Este artículo se publicó originalmente en Univision Noticias

En los últimos meses, el Congreso ha mostrado un creciente interés en abordar el tema de la inteligencia artificial. El Congreso ha tenido conversaciones, organizado foros y realizado audiencias sobre cómo sacar provecho de los beneficios y prevenir los daños que genera esta tecnología de rápida evolución.

Suscríbete aquí al nuevo boletín informativo del Brennan Center en español

Pero estas discusiones pasan por alto lo obvio: los organismos gubernamentales y las compañías ya están empleando sistemas de inteligencia artificial (IA) que producen resultados plagados de errores y prejuicios que amenazan nuestros derechos y libertades civiles, y oportunidades económicas. Los impactos de la IA se sienten aquí y ahora, y el Congreso debe confrontarlos sin más demora.

A lo largo y ancho de la nación, las fuerzas del orden están usando la IA para tomar decisiones fundamentales, lo cual repercute en los derechos y libertades civiles de las personas, en especial en las comunidades inmigrantes y minoritarias. Una noticia reciente reveló que ICE ha estado usando un algoritmo para analizar si las publicaciones en las redes sociales tienen un tono “despectivo” en contra de los Estados Unidos y, luego, utilizan esos datos para aplicar reglas de carácter inmigratorio. 

Además, las tecnologías de reconocimiento facial que utilizan ampliamente las fuerzas policiales no tienen la suficiente precisión para identificar rostros de personas no blancas, lo cual aumenta el riesgo de que se caiga en errores cuando se intenta identificar a personas latinas y no blancas. Estos errores se han traducido en casos ilegales e injustos de arresto y encarcelación de personas afroamericanas, como un caso reciente en Detroit donde una mujer embarazada fue arrestada, detenida y acusada de robo y secuestro de un vehículo debido a un resultado de identificación erróneo. 

Los errores o diseños defectuosos de los sistemas de IA también pueden crear obstáculos a la hora de recibir beneficios públicos esenciales. En Míchigan, un algoritmo utilizado por el organismo de seguro de desempleo del estado identificó erróneamente a unas 40,000 personas que, según el algoritmo, estaban cometiendo fraude en su seguro de desempleo, lo cual redundó en multas, negación de beneficios y casos de bancarrota. 

Un organismo en Idaho redujo los beneficios de Medicaid que recibían cientos de personas con discapacidades intelectuales y del desarrollo, debido a un algoritmo que empleó datos defectuosos para predecir incorrectamente el nivel de asistencia que necesitaba cada beneficiario. Este uso de datos erróneos provocó un efecto devastador sobre muchas personas destinatarias de programas que se vieron privadas de la atención médica necesaria o del acceso a un empleo o una vivienda especializada.

El uso de algoritmos sesgados para filtrar candidatos a un puesto de trabajo también puede limitar el acceso al empleo en perjuicio de grupos marginalizados como las mujeres, las personas no blancas y las personas con discapacidades. Una herramienta de IA desarrollada por Amazon que evalúa currículums para puestos de desarrollador de software bajaba de categoría todas las solicitudes de mujeres, porque había sido entrenada con datos compuestos, en su gran mayoría, por currículums de hombres.

Las compañías también utilizan la IA para predecir el posible rendimiento de sus solicitantes de empleo. Una herramienta llamada HireVue afirma poder evaluar la aptitud para el trabajo de cada candidato a partir de datos fundamentados en entrevistas virtuales, tales como las expresiones faciales, la elección de palabras y la entonación.

Pero las tecnologías de reconocimiento facial y de voz son menos precisas cuando deben evaluar los rostros de un color de piel más oscuro y las voces de personas negras o de personas con acento. HireVue también puede poner en desventaja a las personas solicitantes con discapacidades que pueden tener expresiones faciales atípicas o distintos patrones de habla. 

Mientras tanto, el uso desregulado de la información personal para entrenar a los modelos de la IA amenaza la privacidad y la libertad de expresión y asociación. Los grandes modelos de lenguaje se suelen entrenar con datos —incluso información personal— que se obtiene indiscriminadamente de muchísimos sitios de internet, lo cual debilita el control que debería tener cada persona sobre su propia información. 

Los videos y audios manipulados por la IA, conocidos con el nombre de ultrafalsificaciones (deepfakes), pueden ser utilizados en campañas para desacreditar a oponentes políticos. Rana Ayyub, fuerte crítica del gobierno en la India, afirma haber sido objeto de una campaña que buscaba silenciarla y que incluyó un video ultrafalso pornográfico. 

Este tipo de problemas ya no es raro. 

Las publicaciones generadas por la IA están ayudando a llevar adelante confabulaciones complejas de fraude y extorsión a consumidores, en las que las personas mayores son las más susceptibles. Los videos y audios manipulados están repercutiendo en la información sobre las elecciones y en el discurso público. Además, la enorme cantidad de energía que se necesita para entrenar y mantener estos grandes modelos de lenguaje amenaza el medioambiente y el clima. 

Si el Congreso quiere afrontar con eficacia el tema de la IA, sus efectos actuales ya no se pueden ignorar. 

Una carta enviada este mes al Congreso por el Brennan Center for Justice y más de otras 85 organizaciones de interés público sugiere por dónde empezar: aprovechar los conocimientos de la sociedad civil y las comunidades más afectadas por estas tecnologías para diseñar reglamentaciones que permitan reparar las daños que ya está causando la IA y prepararnos para sus efectos futuros. 

Traducción de Ana Lis Salotti.