DERECHOS HUMANOS EN EL RECONOCIMIENTO FACIAL DE LA IA: UNA MIRADA AL ABUSO DE LA TECNOLOGÍA DE IA EN CHINA
AUTORA: CAROLINE ADAMS
RECONOCIMIENTO FACIAL EN LA IA
El reconocimiento facial por IA se ha convertido en uno de los temas más controvertidos de la era digital. Es una herramienta y medida exitosa en los avances tecnológicos biométricos. Sin embargo, tiene barreras éticas y peligros para los derechos humanos, especialmente el derecho a la privacidad. Como esta tecnología se ha utilizado para rastrear delincuentes o cualquier persona que pueda ser un daño para la sociedad, es una invasión de la privacidad. Uno de los usos más perjudiciales de esta tecnología es el uso de China contra la comunidad Uigur.
La crisis Uigur en China se ha convertido en una de las atrocidades más alarmantes desde la Segunda Guerra Mundial (Lu, 2021). Mientras millones de uigures experimentan algunos de los grados más altos de violaciones de derechos humanos, lo que se vuelve más problemático es la falta de cobertura, de rendición de cuentas y de aplicación de políticas. Las voces de la comunidad Uigur han sido silenciadas y oprimidas por el gobierno chino. La tecnología de reconocimiento facial IA tiene un tremendo poder detrás de ella. La comunidad internacional debe continuar con su compromiso con los derechos humanos y orquestar el uso de la IA para mejorar esos derechos y no debilitarlos.
La tecnología de reconocimiento facial es un sistema basado en algoritmos que funcionan para identificar a las personas a través de imágenes o videos. Aunque esta no es una tecnología reciente, ha avanzado dramáticamente en los últimos años. En su avance, la inteligencia artificial (IA) se ha convertido en una de las tecnologías más controvertidas. Los sistemas de IA pueden buscar múltiples rostros haciendo comparaciones entre sí o detectando múltiples rostros en un área.
La tecnología de IA opera en tres pasos: captura una foto o video, luego mide "puntos de referencia" o rasgos faciales, y luego la información se convierte en una fórmula matemática en una base de datos que puede comparar esos rasgos con otros en el sistema (Economist Magazine, 2018). La tasa de precisión es del 99,5%. El software de reconocimiento facial de IA tiene ventajas que incluyen identificación en tiempo real, medidas contra la suplantación de identidad, disminución del modelo de sesgo racial o de género en millones de rostros, y se puede usar en múltiples cámaras. La IA se utiliza en servicios de salud, en seguridad, en el embarque en aeropuertos y en supervisiónAi Facial Recognition Technology Overview 2021 2021).
Hay un área gris en la legalidad y el uso ético del reconocimiento facial de IA. La mayoría de las imágenes que se recopilan se hacen sin permiso. En 2016, la Universidad de Washington en Seattle recopiló 3,3 millones de fotos de rostros de Flickr sin consentimiento y las publicó en una base de datos. “Actualmente, no existen garantías legales claras con respecto a la recopilación de datos de capacitación de reconocimiento facial, pero, recientemente, Facebook pagó un acuerdo de $650 millones por la recopilación de datos facialesAi Facial Recognition Technology Overview 2021).
Las empresas afirman asumir una mayor responsabilidad con la tecnología de reconocimiento facial, como no reforzar los sesgos existentes, no violar las normas éticas internacionalmente aceptadas y proteger la privacidad con control y transparenciaAi Facial Recognition Technology Overview 2021 A medida que las empresas y los gobiernos han actuado en el crecimiento explosivo de la inteligencia artificial, se espera que el mercado global alcance los 12 920 millones de dólares para 2027. Esta tecnología ha traspasado los límites de la seguridad y ha entrado en el comercio minorista, el transporte, la hostelería y la banca
La conversación sobre esta tecnología a nivel internacional ha variado y se ha vuelto increíblemente controvertida. Figuras como Elon Musk y Stephen Hawking han expresado públicamente sus dudas sobre la tecnología de IA, ya que consideran que podría destruir a la humanidad. Mientras que China, el país líder en la industria, lo usa a diario a través de las compras de los consumidores, el check-in en el aeropuerto y la banca. YITU está innovando una "ciudad inteligente" donde el modelo se basa en el reconocimiento facial de IA. Podría llegar a leer desde las emociones de las personas hasta su sexualidad. El gobierno chino tiene planes para monitorear y controlar a los ciudadanos a través de un lente autoritario utilizando esta tecnología. Actualmente, China tiene 170 millones de cámaras de CCTV, y se estima que tendrán 400 millones en los próximos 3 años.
Mientras China afirma que esta tecnología mejorará la sociedad, otros ven esto como increíblemente peligroso para los derechos humanos. China ha desarrollado la capacidad para que el gobierno autoritario abuse de la IA, incluyendo por ejemplo que sus ciudadanos sean nombrados y avergonzados por delitos menores en vallas publicitarias que utilizan reconocimiento facial de IA. Las minorías étnicas son las más amenazadas, especialmente la comunidad Uigur. Hay al menos 1 millón de uigures detenidos en campamentos secretos donde prevalecen los abusos, el mayor encarcelamiento de un grupo minoritario en el mundo en la actualidad (Economist Magazine, 2018). “El objetivo de China es establecer estándares industriales ahora, para que puedan participar en la configuración del desarrollo y la implementación de estándares mundialesAi Facial Recognition Technology Overview 2021Una tecnología tan poderosa necesita ser cuestionada éticamente.
VIGILANCIA Y SEGURIDAD DE CHINA
El confinamiento y la vigilancia autoritaria en China han alcanzado niveles dramáticos que infringen los derechos humanos de los uigures. A través de inversiones financieras, humanas y técnicas, China ha aumentado la seguridad con puestos de control policial y comisarías. El monitoreo de la región incluye mirar sus redes familiares y sociales, comportamiento, creencias y relaciones con otros miembros de la familia. “Las autoridades de Xinjiang realizan una recopilación masiva obligatoria de datos biométricos, como muestras de voz y ADN, y utilizan inteligencia artificial y big data para identificar, perfilar y rastrear a todos en Xinjiang” (HRW, 2020). A través de esta tecnología de alto nivel, el gobierno puede eliminar a aquellos que tienen comportamientos que amenazan potencialmente al Estado. Aquellos etiquetados como amenazantes para el Estado han sido detenidos o castigados con un trato severo, con la justificación de eliminar las “ideas problemáticas” del Islam turco
China ha construido algoritmos que se utilizan para rastrear a la comunidad Uigur y ha instalado sistemas de reconocimiento facial avanzado. Este sistema permite la elaboración de perfiles raciales de los uigures, donde las cámaras captan su apariencia y mantienen registros de reconocimiento. “China es pionera en la aplicación de tecnología de próxima generación para observar a su gente, lo que podría marcar el comienzo de una nueva era de racismo automatizado” (Mozur, 2018). Las autoridades han apoyado una “red de vigilancia” que recolecta y almacena el ADN de las personas para rastrear a los uigures. La tecnología ha llegado fuera de la región de Xinjiang y se ha lanzado a ciudades como Hangzhou y Wenzhou.
Dado que los uigures tienen un aspecto distinto en comparación con la población mayoritaria Han, la tecnología ha monitoreado y controlado con éxito a la comunidad. CloudWalk, una empresa emergente china de sistemas de vigilancia, escribe directamente en su sitio web "si originalmente un Uigur vive en un vecindario y dentro de 20 días aparecen seis uigures, inmediatamente envía una alarma a las fuerzas del orden" (Mozur, 2018). En combinación con las leyes racistas en nombre de la lucha contra el terrorismo, esta tecnología avanzada ha proporcionado entornos inseguros dentro y fuera de los campamentos. Ha creado una nueva era de discriminación racial que puede resultar en uno de los peores genocidios que jamás hayamos presenciado.
El uso de China de la tecnología de reconocimiento facial de IA ha traspasado un amplio espectro de límites éticos. La XUAR (Región Autónoma Uigur de Xinjiang) se ha convertido en un estado de vigilancia, impuesto por el Secretario del Partido Chen Quanguo. Al igual que en el Tíbet, ha comenzado a utilizar un "sistema masivo de vigilancia electrónica, que incluía una extensa base de datos sobre los hábitos, relaciones, religiosidad y otros rasgos de los residentes uigures que se utilizan para evaluar su 'lealtad al estado' ( Roberts, 2022). Esta sospecha ha aumentado durante décadas, lo que resultó en la creación de campos de encarcelamiento en 2017 y, para 2018, los campos contenían entre 1 y 2 millones de uigures y otras minorías musulmanas. La República Popular China impone un genocidio cultural a través de políticas que destruyen la identidad de la comunidad y reestructuran su paisaje.
Xi Jinping ha utilizado el sistema de creencias de la era de Mao para orquestar un control político donde la tecnología ha respaldado este poder (Robert, 2022). La Alta Comisionada para los Derechos Humanos de las Naciones Unidas, Michele Bachelet, declaró una moratoria a la venta y uso de sistemas de inteligencia artificial hasta que se pueda advertir adecuadamente el riesgo “negativo, incluso catastrófico”. Su respuesta fue después de revisar el informe de la ONU necesidad de una acción urgente sobre el riesgo de la inteligencia artificial para los derechos humanos en reflejo del software espía Pegasus que ingresa a los teléfonos inteligentes y obtiene acceso a toda la información. “Las revelaciones de Pegasus no sorprendieron a muchas personas, dijo la Sra. Bachelet al Comité de Asuntos Legales y Derechos Humanos del Consejo de Europa, sobre el uso generalizado de spyware comercializado por el grupo NSO, que afectó a miles de personas en 45 países de cuatro continentes. ” (Naciones Unidas, 2021). La preocupación por el derecho a la privacidad tiene un gran impacto en el uso de esta tecnología.
La Oficina del Alto Comisionado de Derechos Humanos de las Naciones Unidas elaboró un informe que revisó y analizó los efectos de la tecnología de inteligencia artificial en el derecho a la privacidad, los derechos a la salud, la educación, la libertad de movimiento, la reunión pacífica, la asociación y la libertad de expresión. Tim Engelhardt, Oficial de Derechos Humanos de la Sección de Derecho y Democracia, ha dado un paso adelante con gran preocupación por la tecnología de IA, afirmando "el acuerdo de la Unión Europea para fortalecer las reglas de control" y "el crecimiento de compromisos voluntarios internacionales y mecanismos de rendición de cuentas", advirtió que “no creemos que tengamos una solución el próximo año, pero los primeros pasos deben darse ahora o muchas personas en el mundo pagarán un alto precio” (Neuman, 2021). Este informe sugiere que los estados y las empresas no llevan a cabo la diligencia debida al instalar este software y pone en evidencia el maltrato de numerosas personas, como la denegación de los beneficios de la seguridad social o el arresto injusto debido a fallas en la IA. Y más importante, el riesgo discriminatorio en la tecnología es lo más perjudicial para los derechos humanos (Neuman, 2021).
Dado que la responsabilidad y la rendición de cuentas recaen en el estado y la gobernanza, las empresas de tecnología públicas y privadas tienen un papel muy importante en la eliminación de las violaciones de los derechos humanos con el uso de sus productos. En 2020, el MIT cortó su relación con iFlytek, una empresa china de inteligencia artificial que suministraba la tecnología que vigilaba a los musulmanes en Xinjiang. Maria Zuber, vicepresidenta de investigación del MIT, declaró: “Nos tomamos muy en serio las preocupaciones sobre la seguridad nacional y las amenazas a la seguridad económica de China y otros países y las cuestiones de derechos humanos” (Knight, 2020). En 2019, el gobierno de EE. UU. prohibió a las empresas chinas de inteligencia artificial hacer negocios con empresas estadounidenses debido a su uso de la tecnología para oprimir a la minoría musulmana. Human Rights Watch declaró que iFlytek proporciona a las autoridades de Xinjiang tecnología que se utilizó para identificar a la comunidad musulmana con huellas de voz. La vigilancia ha resultado en la detención y desaparición de 1 millón de uigures (Knight, 2020).
MARCO ÉTICO
Para resaltar los efectos beneficiosos del uso Chino del reconocimiento facial de IA, se puede decir que ha habido un éxito significativo en la eliminación del crimen. Por ejemplo, en Zhengzhou, un oficial de policía pudo detectar a un contrabandista de heroína en una estación de tren. En Qingdao, la inteligencia artificial capturó a dos docenas de sospechosos criminales durante un festival. Estos programas han encontrado criminales, como asesinos, traficantes de drogas, etc. Beijing está adoptando la tecnología que rastrearía a 1.400 millones de personas y ensamblaría sistemas de vigilancia nacionales. Las estaciones de tren ahora pueden buscar a los delincuentes más buscados en China (Mozur, 2018). “China ya tiene aproximadamente 200 millones de cámaras de vigilancia, cuatro veces más que Estados Unidos” (Mozur, 2018).
Una de las principales necesidades en el uso de la tecnología de IA es la transparencia por parte de empresas, estados y organizaciones internacionales. El mundo debe poder comprender completamente el desarrollo, el uso y las intenciones detrás de la tecnología. El informe del ACNUDH establece que: “La complejidad del entorno de datos, los algoritmos y los modelos subyacentes al desarrollo y funcionamiento de los sistemas de IA, así como el secreto intencional de los actores gubernamentales y privados son factores que socavan maneras significativas para que el público comprenda los efectos de los sistemas de IA en los derechos humanos y la sociedad” (Naciones Unidas, 2021). Existe responsabilidad dentro del sector público y privado, las empresas de tecnología, la investigación académica, las obligaciones del Estado, las obligaciones internacionales y los compromisos de las ONG de utilizar el reconocimiento facial para mejorar los derechos humanos.
Amnistía Internacional lanzó una campaña mundial para prohibir la tecnología de reconocimiento facial, ya que permite la vigilancia racista y amenaza el derecho a protestar. Matt Mahmoudi, investigador de IA y derechos humanos de Amnistía Internacional, afirmó: “El reconocimiento facial corre el riesgo de ser utilizado como arma por las fuerzas del orden contra las comunidades marginadas de todo el mundo. Desde Nueva Delhi hasta Nueva York, esta tecnología invasiva vuelve nuestra identidad en nuestra contra y socava los derechos humanos”. Matt y la organización sienten que la tecnología puede funcionar como arma racial. Los tribunales del Reino Unido dictaminaron que el reconocimiento facial es una tecnología que viola los derechos humanos, la libertad personal, invade la privacidad y conlleva discriminación en su práctica, pero no para eliminarlo, solo utilizarlo para mayores bienes (Fernández, 2020).
La IA tiene problemas más grandes de emisión discriminatoria que de fallas en su tecnología “De hecho, los asiáticos y los afroamericanos tienen 100 veces más probabilidades de ser identificados erróneamente que los hombres blancos, y los nativos americanos tienen las tasas más altas de identificaciones falsasEl entrenamiento de datos para la tecnología está configurado para buscar ciertas características raciales y de color. Por ejemplo, si la tecnología se entrena en datos que se basan en hombres blancos, entonces se centrará en hombres blancos. La policía de Gales del Sur utilizó el reconocimiento facial para encontrar a un delincuente conocido en la final de la Liga de Campeones, lo que resultó en un falso positivo en el 92 % de los partidos. De manera similar, la policía de Detroit se encontró con el mismo problema de 96% de falsos positivos en una búsqueda que arrestó al hombre equivocado (Fernández, 2020). Para que esta tecnología se utilice, debe perfeccionarse y estructurarse para proteger los derechos humanos, ya que ha sido un sistema defectuoso en casos anteriores.
Conclusión
La tecnología de reconocimiento facial se ha convertido en una de las herramientas más poderosas para mejorar los derechos humanos al mismo tiempo que se ha orquestado como arma contra la humanidad. Esta tecnología se encuentra en un espectro con dos condiciones polares opuestas. La responsabilidad de ejercer el uso de esta tecnología es una preocupación del Estado, el gobierno, la comunidad internacional, el sector privado, las empresas públicas y la educación. Para utilizar éticamente esta tecnología, se debe comunicar la transparencia y las intenciones deben basarse en la mejora de la vida humana.
Lista de Referencias
Ai Facial Recognition Technology Overview 2021. RecFaces. (2021, August 23). Retrieved November 8, 2021, from https://recfaces.com/articles/ai-facial-recognition
Amnesty International. (2021, August 17). Ban facial recognition technology. Amnesty International. Retrieved November 9, 2021, from https://www.amnesty.org/en/latest/press-release/2021/01/ban-dangerous-facial-recognition-technology-that-amplifies-racist-policing/
Fernandez, E. (2020, August 12). Facial recognition violates human rights, court rules. Forbes. Retrieved November 9, 2021, from https://www.forbes.com/sites/fernandezelizabeth/2020/08/13/facial-recognition-violates-human-rights-court-rules/?sh=44d625675d44
Interesting Engineering. (2020). How does facial recognition work? YouTube. YouTube. Retrieved November 10, 2021, from https://www.youtube.com/watch?v=YX8BzK_LU0E.
Knight, W. (2020, April 21). Mit cuts ties with a Chinese AI firm Amid Human Rights Concerns. Wired. Retrieved November 9, 2021, from https://www.wired.com/story/mit-cuts-ties-chinese-ai-firm-human-rights/
Lu, C. (2021, March 16). Painting Xinjiang’s brutal camps in 3D. Foreign Policy. Retrieved December 22, 2021, from https://foreignpolicy.com/2021/03/16/xinjiang-reeducated-documentary-uyghur-china-vr/.
Mozur, P. (2018, July 8). Inside China’s dystopian dreams: A.I., shame and lots of cameras. The New York Times. Retrieved November 8, 2021, from https://www.nytimes.com/2018/07/08/business/china-surveillance-technology.html
Neuman, S. (2021, September 16). The U.N. warns that AI can pose a threat to human rights. NPR. Retrieved November 9, 2021, from https://www.npr.org/2021/09/16/1037902314/the-u-n-warns-that-ai-can-pose-a-threat-to-human-rights
ROBERTS, S. E. A. N. R. (2022). War on the Uyghurs: China’s internal campaign against a Muslim minority. PRINCETON UNIV PRESS
United Nations. (2021, September 15). Urgent action needed over artificial intelligence risks to human rights | | UN news. United Nations: UN News Global perspective Human stories. Retrieved November 9, 2021, from https://news.un.org/en/story/2021/09/1099972
YouTube. (2018). China: facial recognition and state control | The Economist. YouTube. Retrieved November 10, 2021, from https://www.youtube.com/watch?v=lH2gMNrUuEY&t=273s.