Por: Eduardo Salazar Uribe
Lady Dariana, es una mujer transgénero de Ecuador, quien huyó de su país de origen por situaciones que ponían en peligro su vida, relacionadas con su activismo. Ella llegó a Estados Unidos en el año 2022 en busca de refugio y seguridad.
“Quería una vida más tranquila donde pudiera ser yo misma, sin miedo”, dijo Lady Dariana, de 33 años, que pidió que no se compartiera su apellido por protección (según su testimonio, recibió amenazas de muerte de grupos conservadores asociados a mafias en su país).
Su lucha contra la discriminación continuó a lo largo de su viaje, ya que al igual que las otras 33 personas transgénero y no binarias de México, Ecuador, Honduras, Nicaragua, El Salvador, Panamá, Venezuela, Colombia, Guatemala, Perú, Cuba y otros lugares entrevistadas para este reportaje, se encontraron con climas políticos cada vez más hostiles.
Según expertos, esta hostilidad se ve exacerbada por la creciente dependencia de sistemas basados en la inteligencia artificial, que ya han demostrado tener un impacto desigual en los grupos minoritarios, al garantizar que los controles de seguridad y los protocolos de identificación funcionen utilizando una definición binaria de género que deja poco margen para quienes no se ajustan a los criterios.
“Los algoritmos no son neutrales”, afirmó Liaam Winslet, activista de origen ecuatoriano del grupo de defensa TRANSgrediendo, con sede en el barrio de Queens, que promueve la atención sanitaria y los derechos humanos de las comunidades transgénero, no binarias, de género expansivo e intersexuales de Nueva York. “Son creados por personas con prejuicios, y esos prejuicios se traducen en códigos que luego afectan a comunidades enteras, especialmente a la comunidad trans, a la comunidad queer en general”.
Paso inseguro
La odisea de Lady Dariana comenzó cuando fue detenida en una instalación de control fronterizo en Reynosa, México, donde fue colocada en una celda para hombres, a pesar de que su documento de identidad ecuatoriano afirma su género como mujer, dijo. Desde 2016 la ley ecuatoriana permite cambiar los marcadores de género para reflejar la identidad de género. Al final, pudo salir del centro y pronto llegó a Estados Unidos. Dijo que los funcionarios de inmigración estadounidenses también tuvieron problemas con su documento de identidad, pero aun así le permitieron entrar al país.
Desde la frontera, Lady Dariana se dirigió al aeropuerto de McAllen (Texas) para volar a Nueva York. Tras pasar por el escáner de cuerpo entero del puesto de control de la TSA, los agentes le pidieron que se apartara para someterla a un control adicional.
Aunque no pudo entender del todo lo que decían los agentes, ya que hablaban inglés, sospechó que la estaban señalando por ser transexual porque los agentes no dejaban de señalar el monitor donde aparecía su escáner corporal, haciendo gestos hacia la parte de la imagen cercana a su zona genital.
“También me preguntaron si ‘llevaba drogas o algo así'”, narró Lady Dariana. “No llevaba nada, acababa de salir del centro de detención fronterizo y ellos lo sabían”.
Lady Dariana explicó que los agentes de la TSA (Transportation Security Administration por sus siglas en inglés) la apartaron para requisarla. Dijo, además, que pidió que la registrara una agente femenina, como permite la política de la TSA. A pesar de su petición, en su lugar se asignó a dos agentes varones, que según ella le tocaron la entrepierna y le manosearon el pecho durante la revisión.
Tales experiencias son comunes para los viajeros transgénero y no binarios, que representaron el 5% de todas las quejas sobre maltrato por parte de los agentes de la TSA entre 2016 y 2019, a pesar de constituir aproximadamente el 1% de la población, según un análisis de ProPublica.
La TSA anunció que, a partir de junio de 2023, pasaría a utilizar un nuevo sistema de control “de género neutro” basado en inteligencia artificial, con el objetivo de facilitar los viajes de las personas trans y no binarias. El cambio fue muy bien acogido por los defensores de los derechos humanos, entre ellos la Unión Estadounidense por las Libertades Civiles (ACLU, por sus siglas en inglés), que llevaba tiempo alertando de los problemas de la tecnología de escáner corporal.
Sin embargo, los cambios se produjeron junto con otra controvertida introducción de la tecnología de inteligencia artificial en los aeropuertos, entre ellos el de Aduanas y Protección de Fronteras, que puso en marcha la tecnología de coincidencia facial biométrica para escanear a los pasajeros en más de 200 aeropuertos de EE.UU. Entre ellos: todos los aeropuertos que tienen salidas internacionales.
La ACLU ha demandado a Aduanas y Protección de Fronteras, así como a otras agencias gubernamentales, para obtener detalles sobre el uso que hacen de la tecnología de reconocimiento facial y la vigilancia, alegando que estas medidas suponen una amenaza para la seguridad y la privacidad de las personas, en particular para las comunidades marginadas.
“Estas agencias han abusado o incluso siguen abusando de las autoridades de vigilancia para espiar a manifestantes, opositores políticos, comunidades negras y latinas, y más. Añadir el reconocimiento facial a su arsenal es un serio motivo de alarma”, escribió la ACLU.
Codificación binaria
Cada vez más funcionarios privados y gubernamentales recurren a la inteligencia artificial (IA) para llevar a cabo funciones cotidianas básicas. En noviembre de 2023 había más de 700 casos de uso de esta tecnología en iniciativas del gobierno federal, según AI.gov, un sitio creado por la Oficina de Política Científica y Tecnológica de la Casa Blanca.
Por ejemplo, el Servicio de Aduanas y Protección de Fronteras utiliza software de IA para “reconocer objetos, personas y sucesos en cualquier imagen o secuencia de vídeo”. Una vez entrenado el detector, según el Inventario de Casos de Uso de IA del Departamento de Seguridad Nacional, puede supervisar la transmisión de vídeo en tiempo real, para localizar “objetos, personas y sucesos de interés”.
En el sector privado, fabricantes de smartphones como Apple y Samsung permiten a los usuarios desbloquear su teléfono mediante tecnología de reconocimiento facial con IA, mientras que bancos como Bank of America utilizan el reconocimiento facial para que los clientes puedan iniciar sesión en sus aplicaciones móviles. Amazon, a través de Amazon Go, ofrece un servicio de compra sin cajeros mediante reconocimiento facial.
El AI.gov de la Casa Blanca promete que “El gobierno federal también está estableciendo fuertes barreras de protección para garantizar que su uso de la IA mantenga a las personas seguras y no viole sus derechos“.
¨Reforzando¨ los estereotipos
La tecnología de reconocimiento facial de IA tiene una alta tasa de éxito en la identificación correcta de individuos cisgénero -aquellos que se identifican con el género que se les asignó al nacer- con una tasa de éxito del 98,3% para las mujeres cisgénero y una tasa del 97,6% de identificación de hombres cisgénero. Pero la tasa de fallos fue del 38% al identificar a individuos transgénero, según descubrieron investigadores de la Universidad de Colorado en Boulder en un estudio de 2019. Además, los sistemas construidos sobre IA tienen tasas excepcionalmente bajas de reconocimiento de personas no binarias u otras categorías de género, encontraron los investigadores.
“Estos sistemas corren el riesgo de reforzar los estereotipos sobre el aspecto que debes tener si quieres que te reconozcan como hombre o como mujer. Y eso afecta a todo el mundo”, afirma Morgan Klaus Scheuerman, uno de los investigadores de la UC Boulder.
Scheuerman señaló que el algoritmo lo identificó erróneamente como mujer, al parecer porque tiene el pelo largo. Tanto él como sus compañeros de investigación, Jacob Paul y Jed Brubaker, afirman que la tecnología no ha evolucionado al mismo ritmo que la comprensión moderna del género. Adaptar los algoritmos a un espectro más amplio de identidades exigiría una codificación más compleja y diversa en función del género.
“No les tengo miedo, he luchado y seguiré luchando. Soy una superviviente del sistema desde que nací”. – Josemith Gómez
Entrenar un modelo de IA consiste en tomar una cantidad considerable de datos, introducirlos en un ordenador y observar cómo éste crea un modelo. Pero las personas trans y no binarias a menudo quedan fuera de estos modelos algorítmicos, que se centran en una comprensión binaria del género.
Según los expertos, cuando los algoritmos de inteligencia artificial se entrenan con conjuntos de datos que siguen el enfoque binario de la codificación, se pone en peligro la capacidad de reconocer identidades de género diversas, como las de las personas transgénero o no binarias.
“Cuando pensamos en cómo discrimina la inteligencia artificial, tenemos que pensar en cómo se construyen los sistemas de aprendizaje automático“, afirma Meredith Broussard, periodista especializada en datos y profesora de la Universidad de Nueva York que se centra en el sesgo tecnológico.
“Los patrones matemáticos de los datos son los mismos patrones matemáticos del mundo. Es decir, hay patrones de discriminación“, añadió Broussard, autor de los libros “More Than a Glitch” y “Artificial Unintelligence”.”Así que cualquier tipo de discriminación que exista en el mundo o que haya existido históricamente se reflejará probablemente en los datos que se utilicen para entrenar el sistema”.
Hostilidad en riesgo de aumentar
Se calcula que en 2022 había en Estados Unidos 1,6 millones de jóvenes y adultos transexuales, una pequeña parte de los 336 millones de habitantes, según el Instituto Williams.
A finales de febrero de 2024, se habían presentado en 41 estados cerca de 500 proyectos de ley dirigidos a niños y adultos transgénero, entre los que se incluyen iniciativas para prohibir la atención médica, prohibir el cambio de documentación legal para que sea coherente con el género de cada uno y prohibir a las personas trans ir a baños de acuerdo a su género, según el Trans Legislation Tracker, una recopilación independiente de legislación a nivel estatal.
Los proyectos de ley siguen el repunte de la legislación antitrans del año pasado, en el que se presentaron tres veces más medidas que el récord anterior, según el grupo.
Al menos 32 personas transgénero fueron asesinadas en Estados Unidos en 2023, en comparación con las 41 muertes violentas registradas en 2022, 59 en 2021 y 45 en 2020, estimó la Campaña de Derechos Humanos. La mayoría de las víctimas eran personas trans de color, según la HRC. El grupo afirma que es probable que las cifras sean inferiores a las reales porque muchas personas trans asesinadas no están debidamente identificadas en los informes policiales o de los medios de comunicación.
Según un informe del FBI, el año pasado se cometieron en Estados Unidos 469 delitos de odio contra personas trans.
Se agravan los prejuicios existentes
Las personas trans y los activistas temen que la IA empeore la hostilidad que ya sufren por parte de los miembros de las fuerzas del orden.
“Para la policía somos como basura”, afirmó Kenia Orellana, una mujer transgénero de Honduras. Orellana dijo que sufrió discriminación y violencia por parte de los agentes del orden no sólo en Honduras, sino también en Estados Unidos. “Sólo por mi aspecto, me paran por la calle. Me preguntan qué hago de noche, o si llevo drogas”.
Entre 2013 y 2022, 15 personas transgénero murieron en Estados Unidos a manos de agentes de la ley mientras estaban en la cárcel o en prisión, o mientras permanecían retenidas en centros de detención del Servicio de Inmigración y Control de Aduanas, según Human Rights Watch.
Josemith Gómez, de 22 años, nació en Venezuela y dijo que su familia la echó de casa cuando era adolescente por ser transgénero. De las 34 mujeres trans entrevistadas para este reportaje, 31 aseguraron haber sido rechazadas por sus familias.
Gómez llegó a Estados Unidos en 2022, y se ha sentido más segura desde que llegó a Nueva York, donde ahora vive en Queens. Sin embargo, la discriminación persiste. Hace menos de un año, dijo que estaba en una relación abusiva con un hombre en el condado del Bronx, cuando él la amenazó con llamar al Servicio de Inmigración y Control de Aduanas y hacer que la deportaran.
En lugar de eso, ella miso llamó a la policía, pero dijo que los agentes no hicieron nada por intervenir cuando el hombre arrojó sus pertenencias por la ventana de un sexto piso y le gritaba obscenidades.
“La policía se limitó a decirme que recogiera mis cosas y me fuera“, explicó.
A día de hoy, Gómez se pregunta si la policía no hizo nada porque “soy mujer, porque soy transexual, porque soy inmigrante o porque soy hispana. No lo sé, y quizá nunca lo sepa“.
Los ¨peligros¨ del reconocimiento facial
Muchas de las 34 personas trans entrevistadas para este reportaje afirmaron haber tenido encuentros iniciales negativos con el software de reconocimiento facial.
Erika López, una mujer transgénero de 33 años que llegó a Nueva York procedente de México, afirma que en más de una ocasión se le ha cerrado el acceso a su aplicación bancaria debido a fallos del software de reconocimiento facial de IA.
“Después de hacer mi transición de género, mi aspecto ha cambiado significativamente, pero la información (se refiere a la información almacenada en el sistema) sigue basándose en mi aspecto anterior“, dijo López al NYCity News Service.
Asimismo, agregó que “la aplicación a veces no me reconoce correctamente y me impide acceder a mi cuenta. Esto ocurre todo el tiempo… es muy frustrante, sobre todo cuando intento realizar transacciones importantes en el banco, especialmente si alguien me está viendo”.
Kenia Orellana dijo que también se le ha cerrado el acceso a su iPhone de Apple después de que decidiera utilizar la identificación biométrica para desbloquearlo.
“A veces mi teléfono no me reconoce correctamente, sobre todo si mi aspecto cambia debido al maquillaje o al peinado“, explica Orellana. “Dependo de mi teléfono para muchas actividades cotidianas, y me preocupa que me bloquee. Me ha pasado varias veces“.
A algunos miembros de la comunidad trans les inquieta que estos problemas con las aplicaciones y los teléfonos sean precursores de formas de discriminación aún más graves. La IA ya ha demostrado tener un impacto desigual en los grupos minoritarios, que se manifiesta en todo, desde la discriminación racial en la selección de currículos hasta la disparidad en el acceso a las tarifas de seguros, pasando por problemas con el uso de la tecnología de reconocimiento facial para la vigilancia.
“Los algoritmos no son neutrales”. – Liaam Winslet, Transgrediendo
“Creo que el crecimiento de la discriminación por IA demuestra que no estamos haciendo lo suficiente porque seguimos viendo cómo salen al mercado más productos que perjudican al público a través de los mismos algoritmos sesgados, invasivos y propensos a errores para tomar decisiones que alteran la vida“, dijo Albert Fox Cahn, Director Ejecutivo y Fundador del Proyecto de Supervisión de la Tecnología de Vigilancia (STOP por sus siglas en inglés).
Fox Cahn además señaló que “creo que sabemos que el riesgo es más agudo para aquellos que a menudo han sido más sistemáticamente marginados por las grandes instituciones y gobiernos, incluidas las personas trans“.
Por ejemplo, los activistas han expresado su preocupación por la participación de la policía en la marcha anual del Orgullo de Nueva York, logrando incluso prohibir que la policía de Nueva York y otras fuerzas del orden participen de uniforme hasta 2025. Los activistas afirman que la IA podría dar a los funcionarios una herramienta peligrosa para identificar a quienes asisten a eventos LGBTQ y criminalizarlos.
“Creo que el reconocimiento facial es realmente preocupante porque significa que con una foto se puede identificar potencialmente a miles de personas¨, dijo Fox Cahn.
Múltiples estudios, realizados por defensores independientes de la tecnología como el Instituto de Investigación de AI Distribuida de Timnit Gebru, y por expertos gubernamentales como el Instituto Nacional de Estándares y Tecnología (NIST por sus siglas en inglés), han investigado ejemplos de sesgo en las tecnologías de IA.
“El sesgo no es nuevo ni exclusivo de la IA y no es posible lograr un riesgo cero de sesgo en un sistema de IA“, escribieron los investigadores del NIST en una publicación de 2022, “Hacia un estándar para identificar y gestionar el sesgo en la inteligencia artificial” (en inglés: Towards a Standard for Identifying and Managing Bias in Artificial Intelligence).
La dimensión del daño
El informe del NIST advertía de que el alcance del sesgo potencialmente perpetrado por la IA es una amenaza mayor que el sesgo humano individual, porque puede producirse sin transparencia ni responsabilidad, y a escala masiva.
“Los efectos nocivos de la IA no se limitan al ámbito individual o empresarial, sino que pueden extenderse a la sociedad en general. La escala del daño y la velocidad a la que puede ser perpetrado por aplicaciones de IA o a través de la extensión de grandes modelos de aprendizaje automático a través de dominios e industrias requiere un esfuerzo concertado“, escribieron los autores del informe.
Tras el atentado del Capitolio de Estados Unidos del 6 de enero de 2021, las fuerzas del orden recurrieron a Clearview AI, una empresa privada cuyo controvertido software de reconocimiento facial basado en inteligencia artificial recopila millones de fotos de redes sociales, fichas policiales y otras fuentes.
Más de 600 organismos policiales utilizan la aplicación de la empresa, entre ellos el FBI, el Servicio de Inmigración y Control de Aduanas y el Departamento de Seguridad Nacional. Según Hoan Ton-That, consejero delegado de la empresa, las búsquedas en la aplicación aumentaron un 26% en los días posteriores a los atentados del Capitolio.
Ton-That declaró a NYCity News Service que el objetivo de la empresa es eliminar cualquier sesgo en su algoritmo. Ton-That añadió que el algoritmo de Clearview AI alcanzó una precisión del 99,85% a la hora de identificar el rostro correcto en una colección de 12 millones de fotos de todos los grupos demográficos.
Hon-That no se refirió a los resultados del software en la identificación de personas transgénero y no binarias, ni a las medidas que está tomando la empresa para reducir los prejuicios en la identificación de género.
Normas para el futuro
Sus defensores afirman que el secretismo con el que los funcionarios están integrando la IA en la vida cotidiana debería preocupar a todos.
A Winslet, activista de Transgrediendo, le preocupa la intensificación de la vigilancia de los grupos minoritarios, especialmente las comunidades afroamericana, latina y transexual.
“Estamos viendo un claro enfoque discriminatorio por parte de las fuerzas del orden, especialmente con la implementación de robots equipados con cámaras en áreas específicas de Nueva York“, dijo Winslet, refiriéndose, por ejemplo, a un robot asignado temporalmente para patrullar la estación de metro de Times Square y un conjunto de robots “digidog” que han sido utilizados por la policía de Nueva York desde 2020.
Bamby Salcedo, una líder trans reconocida a nivel nacional que sido invitada en la Casa Blanca por su labor para la comunidad LGBTQI en Estados Unidos, dijo que es fundamental que las personas trans y otras minorías participen activamente en el desarrollo de la IA. Esto podría incluir grupos de trabajo, la contratación de desarrolladores trans y de minorías y la realización de pruebas de nuevos programas informáticos con el fin de eliminar los prejuicios.
Salcedo y otros entrevistados para esta investigación también creen que la protección de los derechos de las personas trans en el contexto de la inteligencia artificial y la vigilancia requerirá transparencia gubernamental y normativas claras.
Josemith Gómez afirmó que, pase lo que pase, el futuro exigirá probablemente la misma resistencia y aguante que las personas trans han utilizado para llegar hasta aquí.
“Con o sin inteligencia artificial, no quiero que me vigilen, que me rastreen, sentir que me vigilan, pero es algo que han hecho siempre“, afirma Gómez.
Aun así, reflexiona: “No les tengo miedo, he luchado y seguiré luchando. Soy una superviviente del sistema desde que nací“.
This article can also be read in English here