Derechos humanos e Inteligencia Artificial

Amnistía Internacional tiene un grupo que investiga cómo estados y empresas utilizan las nuevas tecnologías

José Manuel Mur-Amnistía Internacional
23 de Octubre de 2023
Guardar
Amnistía Internacional tiene un grupo que investiga cómo estados y empresas utilizan las nuevas tecnologías
Amnistía Internacional tiene un grupo que investiga cómo estados y empresas utilizan las nuevas tecnologías

En Amnistía Internacional, desde hace varios años, tenemos un equipo de investigación dedicado en exclusiva a documentar y denunciar, en muchos casos, cómo las empresas y los estados hacen uso de las nuevas tecnologías. 

La Inteligencia Artificial es, más que una tecnología concreta, un conjunto de herramientas de gestión de datos, de procesamiento de grandes cantidades de información.

Como toda herramienta, o, en este caso, paquete de herramientas, debería tener su manual de uso, donde se especificase cómo debe utilizarse, que precauciones debemos tomar o que se puede y que no se puede hacer con ella.

Y esto es lo que, en este atípico otoño, está intentando hacer la Unión Europea, llegar a un acuerdo para aprobar la primera ley que regule el uso de la Inteligencia Artificial.

La tecnología no es un ente neutral ni imparcial, muestra todos los sesgos de quien la desarrolla o de quien la implementa. Los sistemas de inteligencia artificial están amplificando el racismo y las desigualdades existentes. Por eso debemos contar con una regulación que impida que su uso vulnere los derechos humanos fundamentales.

Amnistía Internacional lleva varios años mostrando sus preocupaciones sobre los problemas que la falta de control en este tipo de herramientas (desde sistemas de vigilancia masiva a algoritmos usados por gobiernos) genera y denunciando cómo esto afecta especialmente a personas y colectivos desfavorecidos o marginados.

Casos tan graves como el que causó el cese del gobierno holandés en enero del 2021, al conocerse que habían usado un algoritmo que incluía perfiles raciales para denegar ayudas para cuidados infantiles y que denegó automáticamente estos subsidios a miles de familias en situación de precariedad económica. Este caso demostró como estos sistemas no se usan para mejorar el acceso de las personas a las prestaciones, sino para recortar gastos.

Casos también como el uso del reconocimiento facial por parte de Israel para afianzar y “automatizar” el sistema de apartheid que impone a los palestinos que viven en territorio israelí. que demuestra el grave sesgo racial que pueden incorporar estos sistemas.

Dentro de la propia Unión Europea los estados han ido recurriendo cada vez más al uso de tecnologías opacas y hostiles para facilitar los abusos contra las personas migrantes, refugiadas y solicitantes de asilo en sus fronteras. Sistemas que etiquetan de “amenazas” a personas migrantes por el color de su piel.

Por casos como estos, es imprescindible que la nueva legislación europea tenga en cuenta el respeto a los derechos humanos como premisa previa a cualquier implantación de estas tecnologías. Generar un sistema con una lista clara de situaciones en las que el uso de estas herramientas de inteligencia artificial se consideraría de alto riesgo es fundamental, así como evitar que sean las propias empresas tecnológicas quienes determinen los riesgos.

Una vez más, la Unión Europea tiene una oportunidad de marcar el camino a seguir a otros países y regiones del planeta, veremos si este camino incluye la defensa explícita de los derechos humanos.

 

 

Suscríbete a Diario de Huesca
Suscríbete a Diario de Huesca
Apoya el periodismo independiente de tu provincia, suscríbete al Club del amigo militante