
Au nom du contrôle de ses frontières, l’Union européenne investit dans l’intelligence artificielle. Dernier exemple en date : Itflows, un logiciel d’anticipation des mouvements migratoires. Le site d’investigation Disclose révèle des alertes internes concernant de potentielles dérives dans son application. Des expertes du sujet, interrogées par Infomigrants, s’inquiètent de la place grandissante donnée à ces technologies à “haut risque” pour les droits humains.
Cinq millions d’euros d’argent public européen ont servi à développer le projet Itflows, un outil d’intelligence artificielle (IA) visant à anticiper les mouvements migratoires. Prévu pour un déploiement à partir d’août 2023, cet outil pensé par la société privée Terracom et des instituts de recherches est encore en phase de test.
Mais le projet est jugé “préoccupant” par plusieurs experts, dont Petra Molnar, directrice associée du laboratoire Droit des réfugiés à l’Université de York (Canada), interrogée par InfoMigrants. Membre de l’observatoire Migration Tech, qui suit de près ce type de projets, cette avocate et chercheuse considère qu’Itflows “normalise le recours à des technologies à haut risque comme des logiciels d’analyse prédictive pour anticiper les mouvements des personnes traversant les frontières”.
De fait, alors que l’outil est encore en phase de test, une enquête publiée par Disclose révèle déjà des alertes internes sur ses dérives potentielles. Il y a “un risque important que des informations se retrouvent entre les mains d’États ou de gouvernements qui les utiliseront pour implanter davantage de barbelés le long des frontières”, estime Alexander Kjærum, analyste pour le Conseil danois pour les réfugiés et membre du conseil de surveillance, joint par les journalistes de Disclose.
“Stigmatiser, discriminer, harceler les migrants”
Des membres du comité éthique d’Itflows déplorent un manque d’écoute de leurs alertes. Dans des documents internes obtenus par les journalistes d’investigation, ce comité estime que les informations fournies par Itflows pourraient servir, si elles devaient être utilisées “à mauvais escient”, à “stigmatiser, discriminer, harceler ou intimider des personnes, en particulier celles qui sont vulnérables comme les migrants, les réfugiés et les demandeurs d’asile”.
Dans un de ces rapports, le comité éthique détaille ces dérives. Entre autres : “Les États membres pourraient utiliser les données fournies pour créer des ghettos de migrants”. Le comité pointe également le “risque d’identification physique des migrants”, ainsi que de “discrimination sur la base de la race, du genre, de la religion, de l’orientation sexuelle, d’un handicap ou de l’âge”.
Le recours à l’intelligence artificielle “expose les migrants à des violations de leurs droits, y compris le droit à la vie privée, le droit de ne pas être discriminé et le droit de demander l’asile”, résume Margarida Silva, chercheuse au Centre de recherche sur les entreprises multinationales (SOMO), contactée par Infomigrants. “En investissant de plus en plus dans la surveillance et la technologie de l’IA, les agences frontalières et les décideurs politiques font également le choix de ne pas investir ces ressources dans les opérations de sauvetage et la création de voies de passage sûres”, rappelle-t-elle.
Itflows témoigne de “l’appétit croissant de l’Union européenne (UE) pour l’utilisation de technologies non réglementées et à haut risque” pour les droits humains, déplore Petra Molnar. Parmi ces technologies, on compte aussi les drones de surveillance autonome, ou les logiciels d’extraction de données cellulaires.