NEW YORK, 27 novembre – Les pays doivent faire plus pour lutter contre le profilage racial, ont déclaré hier des experts des droits de l’ONU, avertissant que les programmes d’intelligence artificielle tels que la reconnaissance faciale et la police prédictive risquaient de renforcer cette pratique néfaste.
Le profilage racial n’est pas nouveau, mais les technologies autrefois considérées comme des outils pour apporter plus d’objectivité et d’équité au maintien de l’ordre semblent dans de nombreux endroits aggraver le problème.
«Il existe un grand risque que (les technologies de l’IA) reproduisent et renforcent les préjugés et aggravent ou conduisent à des pratiques discriminatoires», a déclaré à l’AFP Verene Shepherd, experte jamaïcaine des droits humains.
Elle est l’une des 18 experts indépendants qui composent le Comité des Nations Unies pour l’élimination de la discrimination raciale (CERD), qui a publié hier des orientations sur la manière dont les pays du monde entier devraient travailler pour mettre fin au profilage racial par les forces de l’ordre.
Le comité, qui surveille le respect par 182 pays signataires de la Convention internationale sur l’élimination de toutes les formes de discrimination raciale, s’est déclaré particulièrement préoccupé par l’utilisation d’algorithmes d’IA pour ce que l’on appelle la «police prédictive» et «l’évaluation des risques».
Les systèmes ont été vantés pour aider à mieux utiliser les budgets limités de la police, mais les recherches suggèrent qu’ils peuvent augmenter les déploiements dans des communautés qui ont déjà été identifiées, à tort ou à raison, comme des zones à forte criminalité.
« Boucle de rétroaction dangereuse »
«Les données historiques sur les arrestations dans un quartier peuvent refléter des pratiques policières à caractère raciste», a averti Shepherd.
«De telles données aggraveront le risque de surveillance excessive dans le même quartier, ce qui à son tour peut conduire à davantage d’arrestations, créant une boucle de rétroaction dangereuse.»
Lorsque l’intelligence artificielle et les algorithmes utilisent des données historiques biaisées, leurs prédictions de profilage le refléteront.
«Mauvaises données, mauvais résultats», a déclaré Shepherd.
«Nous sommes préoccupés par ce qui entre dans la formulation de ces hypothèses et de ces prédictions.»
Les recommandations du CERD s’opposent également à l’utilisation croissante des technologies de reconnaissance faciale et de surveillance dans les services de police.
Shepherd a déclaré que le comité avait reçu un certain nombre de plaintes concernant une identification erronée par de telles technologies, parfois avec des conséquences désastreuses, mais n’a pas fourni d’exemples spécifiques.
La question est venue au premier plan avec l’arrestation injustifiée à Detroit plus tôt cette année d’un homme afro-américain, Robert Williams, sur la base d’un algorithme défectueux qui l’a identifié comme un suspect de vol.
Diverses études montrent que les systèmes de reconnaissance faciale développés dans les pays occidentaux sont beaucoup moins précis pour distinguer les visages à la peau plus foncée, peut-être parce qu’ils reposent sur des bases de données contenant plus de visages masculins blancs.
«Mauvaise identification»
«Nous avons eu des plaintes de telles erreurs d’identification en raison de l’origine des technologies, de la personne qui les fabrique et des échantillons dont elles disposent dans leur système», a déclaré Shepherd.
«C’est une réelle préoccupation.»
Le CERD appelle les pays à réglementer les entreprises privées qui développent, vendent ou exploitent des systèmes de profilage algorithmique pour l’application de la loi.
Les pays ont la responsabilité de s’assurer que ces systèmes sont conformes au droit international des droits de l’homme, a-t-il déclaré, soulignant l’importance de la transparence dans la conception et l’application.
Le comité a insisté sur le fait que le public devrait être informé lorsque de tels systèmes sont utilisés et comment ils fonctionnent, quels ensembles de données sont utilisés et quelles garanties sont en place pour empêcher les violations des droits.
Les recommandations vont au-delà de l’impact des nouvelles technologies, exhortant les pays à adopter des lois contre toutes les formes de discrimination raciale par les forces de l’ordre.
«Le profilage racial précède ces technologies», a déclaré Shepherd.
Elle a déclaré que 2020 – une année marquée par une montée des tensions raciales dans de nombreuses régions du monde – était un bon moment pour présenter les nouvelles lignes directrices.
Le comité, a-t-elle dit, «espère que l’intensification et la mondialisation de Black Lives Matter … et d’autres campagnes appelant à l’attention sur la discrimination contre certains groupes vulnérables aideront (souligner) l’importance des recommandations.» – AFP-Relaxnews
.