Si vous n’avez pas entendu parler de l’ascension et de la chute de l’application photo Ever, je vous suggère de faire attention. Son histoire illustre comment le gouvernement, s’il le voulait, pourrait obliger les grandes entreprises technologiques telles que Google et Facebook à respecter la vie privée des gens.

Comme de nombreux services cloud, Ever a offert aux utilisateurs un endroit pour stocker leurs photos. Il est ensuite allé plus loin en utilisant ces photos pour former un algorithme de reconnaissance faciale, qu’il a commercialisé auprès des forces de l’ordre et d’autres clients potentiels. Certains utilisateurs d’Ever ont estimé que leur vie privée avait été violée et la Federal Trade Commission a allégué que la société Everalbum avait agi de manière trompeuse en utilisant la reconnaissance faciale à l’insu des clients et en ne supprimant pas leurs photos lorsqu’ils désactivaient leurs comptes.

Ce qui est vraiment intéressant, ce sont les termes du règlement conclu la semaine dernière. Il ne suffit pas qu’Everalbum supprime les photos en question et obtienne le consentement des consommateurs pour utiliser la reconnaissance faciale. L’entreprise doit également supprimer tous les algorithmes qu’elle a développés avec les photos et vidéos qu’elle a obtenues via l’application (qui a été fermée l’année dernière).

L’accent mis par la FTC sur les algorithmes pourrait créer un puissant précédent. Dans le monde de l’intelligence artificielle, les données des gens ne sont que la matière première: pour Google, les termes de recherche et les clics publicitaires; pour Facebook, les messages que les gens lisent et la durée de leur engagement; pour Amazon, ce que les gens achètent et comment ils le trouvent. Les entreprises utilisent ensuite ces données pour mettre à jour leurs algorithmes – quotidiennement, toutes les heures ou même toutes les minutes – afin d’attirer et de générer des bénéfices auprès de toujours plus de personnes. Les algorithmes sont au cœur du produit. Ils contiennent toutes les connaissances accumulées, y compris les liens les plus récents, les dernières vidéos virales et les nouveaux produits les plus populaires.

Ainsi, lorsque la FTC inflige une amende de 5 milliards de dollars à Facebook pour avoir abusé des données des utilisateurs, comme elle l’a fait en 2019, c’est peut-être cher mais loin d’être fatal. Les actifs les plus précieux – les algorithmes développés par Facebook à partir des données détournées – restent intacts. Comme les corps de patients euthanasiés dans le thriller dystopique «Soylent Green», les informations des gens ont déjà été transformées en produit final, prêt à être transmis au suivant.

Publicité

Mais que se passerait-il si les autorités demandaient à Facebook de supprimer les parties incriminées de l’algorithme? Et si l’entreprise devait revenir à une version antérieure, avant de commencer à abuser des données? L’IA serait complètement déconnectée: imaginez Facebook servant des articles d’avant les élections de 2016. Se recycler sans les informations manquantes exigerait un effort monumental, qui bousillerait gravement le modèle commercial pendant un certain temps.

Là réside une arme puissante. Si les autorités laissent savoir qu’elles s’en prendront aux algorithmes la prochaine fois qu’elles surprendront quelqu’un qui abuse des données, les entreprises de technologie prendront probablement beaucoup plus au sérieux les problèmes de confidentialité.

Cathy O’Neil est une chroniqueuse d’opinion Bloomberg.

Rate this post
Publicité
Article précédentLeague of Legends (LoL): le sablier de Zhonya reste l’article le plus acheté
Article suivantNouveau roi des maîtres du duel! Animations premières ce printemps – Actualités
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici