La société prévoit de supprimer plus d’un milliard d’empreintes faciales à la lumière des préoccupations croissantes en matière de confidentialité et des pressions juridiques.
Dans un post récent, le vice-président de l’intelligence artificielle de Meta, Jerome Pesenti, a déclaré que Facebook n’utiliserait plus de logiciel de reconnaissance faciale. La société prévoit également de supprimer plus d’un milliard d’empreintes faciales.
Depuis 2010, les utilisateurs de Facebook pouvaient auparavant tirer parti de la technologie de reconnaissance faciale pour identifier automatiquement les individus sur toutes les photos ou vidéos téléchargées sur le site de médias sociaux.
Cependant, la pression juridique et politique croissante concernant l’utilisation d’un logiciel de reconnaissance faciale a incité Meta à déclarer que le système serait fermé sur toute la plate-forme dans les semaines à venir.
Des changements à l’horizon
Meta prévoit actuellement d’effacer les modèles de reconnaissance faciale individuels de plus d’un milliard d’utilisateurs. Par conséquent, Facebook ne pourra pas reconnaître automatiquement les visages dans les photos et les vidéos.
L’empreinte faciale d’identification des personnes qui ont opté pour la reconnaissance faciale sera supprimée. Les utilisateurs qui ne se sont pas inscrits au système n’ont cependant aucune empreinte faciale à supprimer, et Pesenti a déclaré que tous les utilisateurs sont désormais encouragés à marquer leurs images manuellement.
Les changements que nous annonçons aujourd’hui impliquent une évolution à l’échelle de l’entreprise de ce type d’identification large vers des formes plus étroites d’authentification personnelle.
Un outil controversé
Depuis 2010, Facebook permet à ses utilisateurs de marquer automatiquement des individus sur des photos et des vidéos avec un logiciel de reconnaissance faciale, ce qui simplifie énormément le processus et permet aux utilisateurs de savoir plus facilement quand quelqu’un d’autre a téléchargé une photo d’eux.
Pesenti a réitéré que le système de reconnaissance faisait bien plus que cela, affirmant que la technologie était particulièrement utile pour les utilisateurs malvoyants et aveugles. Ces utilisateurs auraient auparavant pu identifier leurs amis et leur famille sur les photos, grâce aux noms d’utilisateur automatiquement inclus dans le texte alternatif de l’image.
Alors que les utilisateurs pourront toujours ajouter du texte alternatif et des balises à leurs images et vidéos, Facebook ne les aidera pas en faisant automatiquement des suggestions.
Ce pivot fait apparemment partie du plan de Meta visant à créer un vaste « métaverse » – un monde virtuel où les utilisateurs peuvent communiquer via des casques VR. Pesenti a également déclaré que la société avait toujours l’intention d’envisager la technologie de reconnaissance faciale dans les cas où les utilisateurs sont invités à vérifier leur identité, comme moyen de protéger les personnes contre la fraude.
Cependant, Pesenti a souligné que les avantages proposés du logiciel devraient être mis en balance avec « les préoccupations croissantes concernant l’utilisation de [the] la technologie dans son ensemble ».
Sous pression
Les « préoccupations croissantes » évoquées par Pesenti sont en fait en constante ébullition depuis près d’une décennie. En 2020, Meta a payé 650 millions de dollars pour régler un recours collectif dans lequel les utilisateurs affirmaient que la société avait produit et stocké des scans du visage sans obtenir au préalable le consentement. La technologie de reconnaissance faciale a également suscité des critiques de tous les coins du monde, le Bureau du commissaire à l’information (ICO) du Royaume-Uni étant même intervenu pour répondre aux préoccupations généralisées concernant la technologie utilisée dans cafétérias scolaires.
Les algorithmes des logiciels de reconnaissance faciale contiennent également souvent des préjugés raciaux notoires contre les personnes de couleur et démontrent de manière absurde mauvaise précision et des taux d’erreur accrus, en particulier lorsqu’il s’agit de sujets qui sont des femmes noires âgées de 18 à 30 ans. En 2018, une étude historique menée par les chercheurs Buolamwini et Gebru a calculé que les femmes noires étaient mal classées par certains algorithmes jusqu’à 35% du temps. En revanche, les hommes blancs étaient presque toujours classés correctement.
Ces erreurs peuvent avoir un impact considérable sur la vie de leurs sujets mal classés, en particulier s’ils sont utilisés par les autorités pour identifier des suspects potentiels. Des logiciels de reconnaissance faciale erronés, entraînés avec des visages à prédominance blanche, peuvent finalement être responsables d’arrestations injustifiées et de violences policières.
Posture ou intentionnel ?
Les défenseurs de la protection de la vie privée craignent maintenant que le récent changement de nom de Meta et son plan d’élimination progressive de la reconnaissance faciale ne soient guère plus qu’un coup de pub au bon moment destiné à détourner l’attention des malheurs actuels de l’entreprise.
Dans des documents partagés par l’ex-employée devenue dénonciatrice, Frances Haugen, il a été découvert que la société précédemment connue sous le nom de Facebook était bien consciente des effets néfastes de ses applications sur les utilisateurs, en particulier les adolescents. Les documents ont également révélé que Meta avait eu du mal à résoudre ces problèmes, ou bien les avait carrément ignorés, poursuivant ainsi un modèle inquiétant de traitement des données peu fiable et de mépris pour le bien-être des utilisateurs.
Malheureusement pour Meta et Mark Zuckerberg, il faudra bien plus qu’une nouvelle couche de peinture et une poignée de promesses pour assurer à ses détracteurs que l’entreprise est motivée par un engagement à protéger la confidentialité des utilisateurs – et pas simplement à rechercher le profit.