Amazone, Google Alphabet parent et Microsoft utilisé les photos des gens pour former leur la reconnaissance faciale technologies sans obtenir la permission des sujets, en violation d’une loi de confidentialité biométrique de l’Illinois, un trio de poursuites fédérales déposées mardi allèguent.
Les photos en question faisaient partie de IBM’s Diversité des visages base de données, conçue pour faire progresser l’étude de l’équité et de la précision de la reconnaissance faciale en examinant plus que le teint, l’âge et le sexe de la peau. Les données comprennent 1 million d’images de visages humains, annoté avec des balises telles que la symétrie du visage, la longueur du nez et la hauteur du front.
Les deux résidents de l’Illinois qui ont intenté les poursuites, Steven Vance et Tim Janecyk, disent que leurs images ont été incluses dans cet ensemble de données sans leur autorisation, bien qu’ils s’identifient clairement comme des résidents de l’Illinois. La collecte, le stockage et l’utilisation d’informations biométriques sont illégaux dans l’État sans consentement écrit en vertu de la Biometric Information Privacy Act, adoptée par la législature de l’Illinois en 2008.
Les accusés « ont choisi d’utiliser et de tirer parti des identifiants biométriques et des informations numérisées à partir de photographies téléchargées depuis l’Illinois; gérées via des comptes d’utilisateurs basés sur l’Illinois, des ordinateurs et des appareils mobiles, et / ou créés dans l’Illinois », indiquent les poursuites. « Ce faisant, [defendants] exposé les résidents et les citoyens de l’Illinois à des risques permanents pour la vie privée dans l’Illinois, sachant que [their] une conduite blesserait ces résidents et citoyens de l’Illinois. »
La reconnaissance faciale a subi des contrecoups intimité les avocats et les législateurs, et une poignée de villes ont interdit l’usage municipal de la technologie. L’année dernière, les législateurs démocrates ont proposé d’interdire les logements sociaux en utilisant une technologie comme la reconnaissance faciale. Pourtant, les systèmes de reconnaissance faciale sont en passe de devenir omniprésents dans les aéroports et centres commerciaux, et certaines entreprises les vendent aux services de police.
Les critiques citent des études montrant que la technologie a de faibles taux de précision pour les femmes et les minorités. Lorsqu’il fonctionne correctement, ajoutent-ils, il a le potentiel de devenir une forme de surveillance incontournable et invasive. Des entreprises telles que Clearview AI, qui dispose d’une technologie permettant aux utilisateurs d’identifier des personnes en comparant leur visage à des photos extraites d’Internet, a soulevé des inquiétudes quant au pouvoir de la technologie.
IBM, qui a collecté les images du site photo Flickr, fait face à des critiques plus tôt cette année, certains photographes, experts et activistes pour ne pas avoir informé les gens que leurs images étaient utilisées pour améliorer la technologie de reconnaissance faciale. En réponse, IBM a déclaré qu’il prenait la confidentialité au sérieux et que les utilisateurs pouvaient se retirer de l’ensemble de données.
IBM a été un ardent défenseur de la réglementation de la reconnaissance faciale, mais en juin, la société a annoncé qu’elle se retirer du marché de la reconnaissance faciale, disant qu’il s’inquiète que la technologie soit utilisée pour promouvoir la discrimination et l’injustice raciale.
Les poursuites, intentées devant les tribunaux de Californie et de l’État de Washington où les sociétés sont basées, visent à obtenir le statut de recours collectif, ainsi que des dommages-intérêts pécuniaires et la limitation des activités des défendeurs concernant la base de données.
Microsoft a déclaré avoir reçu la plainte et l’examiner.
« Nous prenons la confidentialité très au sérieux et nous nous engageons à veiller à ce que notre technologie d’IA soit développée et utilisée de manière responsable », a déclaré un porte-parole de Microsoft.
Les représentants d’Amazon et de Google n’ont pas répondu aux demandes de commentaires.