BRUXELLES, 15 décembre – Les gens ont besoin d’une meilleure protection contre les effets de l’intelligence artificielle, a fait valoir l’agence de défense des droits de l’UE dans un rapport lundi, alors qu’un expert mettait en garde contre «l’adoption aveugle» de cette technologie.
Une grande partie de l’attention portée aux développements de l’IA «se concentre sur son potentiel de soutien à la croissance économique», indique le rapport de l’Agence des droits fondamentaux (FRA). Mais il a ajouté: «La façon dont différentes technologies peuvent affecter les droits fondamentaux a reçu moins d’attention.»
Il existe un risque que «les gens adoptent aveuglément de nouvelles technologies sans évaluer leur impact avant de les utiliser», a déclaré à l’AFP David Reichel, l’un des experts qui ont travaillé sur le rapport.
«Il y a beaucoup de gens qui pensent que lorsque vous n’avez pas de données liées au sexe ou à l’origine ethnique dans votre ensemble de données, tout va bien et ce n’est pas discriminatoire», a ajouté Reichel.
Au contraire, a-t-il soutenu, la prudence était de mise car «il y a beaucoup d’informations qui peuvent être liées à des attributs protégés».
En août, par exemple, la cour d’appel de Londres a conclu que l’utilisation de la reconnaissance faciale par la police de Cardiff était illégale, en partie parce que trop peu avait été fait pour garantir que la technologie n’était pas sujette à des biais.
«La technologie évolue plus vite que la loi», a déclaré le directeur de la FRA Michael O’Flaherty dans le rapport.
«Nous devons saisir l’opportunité maintenant pour nous assurer que le futur cadre réglementaire de l’UE pour l’IA est fermement ancré dans le respect des droits de l’homme et des droits fondamentaux.»
Un financement supplémentaire de la recherche était nécessaire sur les «effets potentiellement discriminatoires de l’IA», a ajouté l’agence.
« Toute future législation sur l’IA doit prendre en compte » les éventuels effets discriminatoires et entraves à la justice « et créer des garanties efficaces », a déclaré l’agence dans un communiqué accompagnant le rapport.
La question était d’autant plus urgente que «la pandémie de Covid-19 a potentiellement accéléré l’acceptation des technologies innovantes», en particulier pour améliorer les soins de santé et aider à suivre la propagation de la maladie, note le rapport.
Déjà au début de 2020, 42% des entreprises utilisaient des technologies dépendant de l’IA, indique le rapport, citant des recherches récentes.
Les organisations utilisant une telle technologie doivent être plus transparentes et plus responsables, selon le rapport.
«Les gens doivent savoir quand l’IA est utilisée et comment elle est utilisée, ainsi que comment et où se plaindre», a-t-il ajouté. – AFP-Relaxnews
.