• Le potentiel d’utilisation abusive des logiciels de reconnaissance faciale (FRS) a soulevé des questions fondamentales concernant l’utilisation éthique, la confidentialité et l’accessibilité.
  • Les développeurs de logiciels de reconnaissance faciale peuvent élaborer des normes pour garantir une conception technologique éthique et responsable.

Le logiciel de reconnaissance faciale (FRS) a défrayé la chronique récemment et à juste titre. Son potentiel d’utilisation abusive a soulevé des questions fondamentales concernant l’utilisation éthique, la confidentialité et l’accessibilité. Dans certains cas, de grandes entreprises ont même interrompu le développement et certaines ONG ont appelé à des interdictions totales.

De tels mouvements ont poussé certains à pousser à plus de standardisation dans le développement de la technologie de reconnaissance faciale car beaucoup réalisent qu’elle peut être utilisée pour conduire une atteinte inacceptable aux libertés. Le chef de la police d’une grande ville américaine a même souligné que le faible niveau de précision du FRS pourrait conduire les autorités à mal identifier quelqu’un. 96% du temps si les officiers devaient tirer parti de la technologie seule.

Pour aider à atténuer ces craintes, ceux qui développent des logiciels de reconnaissance faciale peuvent élaborer des normes visant à garantir une conception technologique éthique et responsable. Ces normes centrées sur l’homme peuvent aider à forger la confiance et à protéger contre les préjugés ou les applications erronées.

Le biais d’algorithme, également appelé biais d’apprentissage automatique, est un phénomène dans lequel les algorithmes peuvent agir de manière discriminatoire ou préjugée en raison d’hypothèses mal placées pendant la phase d’apprentissage de leur développement.

Les préjugés inconscients concernant le sexe, la race et la classe sociale peuvent se frayer un chemin dans les données de formation alimentées par les programmeurs dans des «algorithmes d’apprentissage automatique», des systèmes qui améliorent constamment leurs propres performances en incluant de nouvelles données dans un modèle existant.

Publicité

Ces biais peuvent être observés dans la sortie de l’algorithme: des hypothèses reflétées erronées qui peuvent entraîner une couverture gênante des informations.

Certaines histoires récentes sur le biais d’algorithme accidentel comprennent:

Au cours de la dernière année, l’équipe d’Intelligence artificielle du Forum économique mondial a découvert que des limites responsables pouvaient être fixées pour la technologie de reconnaissance faciale. Son équipe d’IA a travaillé aux côtés des secteurs public et privé pour développer un Cadre FRS ancré dans le développement responsable pour les ingénieurs et le déploiement pour les décideurs.

Le cadre est le premier à aller au-delà des principes généraux et à opérationnaliser les cas d’utilisation commerciale sous la bannière de l’IA éthique et responsable. Il comprend quatre étapes simples:

1. Projet de principes qui définissent l’utilisation responsable.

La reconnaissance faciale a acquis une importance particulière car COVID-19 a fait des services sans contact un moyen sûr de vérifier les identités. Bien que la technologie sans contact et sans mot de passe soit la voie à suivre, les entreprises peuvent choisir la direction à suivre.

Pour guider ce voyage – et éviter les abus – les entreprises peuvent rédiger un ensemble de «principes d’action» qui définissent ce qui constitue une technologie de reconnaissance faciale responsable. Ces principes devraient se concentrer sur 7 domaines clés pour protéger les utilisateurs de toute utilisation abusive de la technologie et être développés en consultation avec les acteurs de l’industrie, les décideurs politiques, les groupes de défense et les universitaires dans le but d’atteindre un haut niveau de consensus entre ces parties prenantes. Ces domaines comprennent:

  • Confidentialité: protéger les données personnelles de l’utilisateur final
  • Évaluation des risques: élaborer des processus pour atténuer les risques d’erreurs et leurs conséquences
  • Utilisation proportionnelle de la technologie: évaluer le compromis entre les risques d’utilisation et les opportunités
  • Responsabilité: définir la responsabilité des fournisseurs de plateforme et des organisations utilisant la technologie
  • Consentement: nommer les règles du libre consentement des utilisateurs finaux
  • Accessibilité: s’assurer que la technologie s’adapte aux personnes handicapées
  • Adaptabilité: offrir des options de repli à mesure que les situations changent et avoir des humains sur le pont pour la surveillance

Pour garantir l’adoption effective de ces principes d’action, ils doivent être intégrés au cœur des opérations commerciales par le biais de processus internes et d’une surveillance afin de réduire les risques potentiels.

La prise en compte de ces points peut garantir un haut niveau de sécurité et de respect de la confidentialité des données. Leur application pourrait manifester des mécanismes tels que la suppression automatique des données biométriques après 24 heures, la réalisation d’évaluations d’impact parmi les concepteurs pour identifier tout biais potentiel ou la conception de panneaux publics pour que les passants sachent quand un système FRS est en cours d’exécution.

«Les normes centrées sur l’humain peuvent aider à forger la confiance et à se protéger contre les préjugés ou les mauvaises applications.

2. Concevoir des systèmes pour soutenir les équipes de produits.

Pour développer des technologies «responsables dès la conception», les équipes produit auront besoin d’un soutien spécial, des meilleures pratiques et de systèmes de test ou de contrôle qualité. Les facteurs à prendre en compte lors de la conception de systèmes pour fournir ce soutien comprennent:

  • Justification de la reconnaissance faciale
  • Un plan de données correspondant aux caractéristiques de l’utilisateur final
  • Atténuation des risques de biais
  • Méthodes pour informer les utilisateurs finaux

Pour prendre en compte chaque facteur, de fortes collaborations entre l’organisation utilisant la technologie et le fournisseur de la plateforme aideront à atténuer les risques. Par exemple, dans l’atténuation des risques de biais, les algorithmes fournis par les fournisseurs de plates-formes doivent être formés avec des données qui représenteront véritablement les utilisateurs du service et le système testé pour s’assurer qu’il fonctionne correctement avant sa sortie. Pour ce faire, les organisations doivent évaluer la diversité de leurs utilisateurs finaux et la partager avec le fournisseur de la plate-forme pour former l’algorithme en conséquence.

Tout en reconnaissant que des biais peuvent encore se produire, les organisations doivent anticiper ce risque en construisant des systèmes de secours suffisamment robustes pour fournir le même niveau de service à tout le monde et ainsi réduire toute forme de discrimination due aux biais d’algorithmes.

3. Auto-évaluez votre travail.

Les meilleures pratiques et principes ne peuvent exister dans le vide. L’auto-évaluation est une étape nécessaire pour vérifier que les principes d’action sont respectés et pour identifier les angles morts potentiels. À cette fin, un questionnaire d’évaluation peut aider les groupes à tester dans quelle mesure les systèmes qu’ils ont conçus correspondent aux normes qu’ils avaient fixées.

Par exemple, lorsqu’il s’agit d’évaluer leur utilisation proportionnelle, les organisations peuvent vérifier si elles ont envisagé des alternatives au FRS et documenté les raisons pour lesquelles elles les ont rejetées. Ils peuvent également analyser le niveau de faux négatifs et de faux positifs et déterminer si ce niveau convient au cas d’utilisation qu’ils déploient. Ils peuvent également comparer leurs résultats entre les tons de peau pour attester que le système ne produit aucune forme de discrimination.

Lorsque des lacunes sont détectées, le processus d’évaluation peut amener les équipes à se référer à leurs meilleures pratiques pour prendre des mesures internes pour combler les lacunes et améliorer leur niveau de responsabilité et de fiabilité envers leurs clients.

4. Validez la conformité grâce à un audit tiers.

Trop souvent, les entreprises ne comptent que sur des étiquettes faites maison pour renforcer la transparence entre les utilisateurs. La qualité de ces labels peut parfois être mise en doute, et pose également un risque systémique de méfiance à l’égard de l’industrie qui pourrait par conséquent saper les efforts plus larges de renforcement de la transparence.

Être audité par une tierce partie indépendante pour délivrer une certification conforme aux Principes d’action pourrait être une voie à suivre. Les leçons de l’industrie comptable peuvent être appliquées, ajoutant une transparence et une sécurité supplémentaires par le biais d’agences indépendantes et accréditées. [For example, to draft our FRS framework, the World Economic Forum Artificial Intelligence team partnered with AFNOR Certification, the French leader of certification and assessment services.]

Ces évaluations devraient avoir lieu juste après le déploiement des systèmes pour les utilisateurs finaux et être effectuées régulièrement pour attester du respect des normes dans le temps. Ce faisant, les organisations certifiées pourront communiquer avec leurs clients pour montrer leur conformité à un éventail d’exigences.

Alors que la certification est largement utilisée dans de nombreux secteurs et services, la reconnaissance faciale, malgré son haut niveau de contrôle, est toujours déployée sans aucune certification existante. Nous pensons que la transparence et la confiance dans ce domaine ne peuvent être obtenues qu’avec de tels mécanismes.

Regarder vers l’avant Ces quatre étapes peuvent contribuer à la conception de systèmes responsables pour les cas d’utilisation de la gestion des flux dans FRS. Ils peuvent également s’assurer que leurs concepteurs et utilisateurs se conforment effectivement à ces principes réalisables.

La certification est une étape accessible vers la réglementation des FRS. La coopération entre les acteurs de l’industrie, les décideurs politiques, les universitaires et la société civile sur ce projet de politique a montré une forte volonté de normes pour l’utilisation commerciale du FRS.

Pourtant, les gouvernements doivent intervenir pour adopter des projets de loi qui garantiront une réglementation durable du FRS ainsi que des normes internationales définissant ce que devrait être une utilisation responsable de la technologie. Ils doivent également aborder la question épineuse du FRS pour l’application de la loi et déterminer les bons niveaux de surveillance et de responsabilité pour ses cas d’utilisation connexes.

Le récent appel à la réglementation par des organisations telles qu’IBM, Microsoft et Amazon devrait être suivi de nouvelles réglementations ou directives, sinon nous verrons probablement un déploiement de FRS qui conduira à la méfiance et à l’évitement des consommateurs.

Licence et republication

Les articles du Forum économique mondial peuvent être republiés conformément aux Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 Licence publique internationaleet conformément à nos Conditions d’utilisation.

.

Rate this post
Publicité
Article précédentAu-delà du football avec Jamaal Williams
Article suivantGoogle interdit les publicités sur le contenu de la théorie du complot du coronavirus
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici