Si vous n’avez pas entendu parler de l’ascension et de la chute de l’application photo Ever, je vous suggère de faire attention. Son histoire illustre comment le gouvernement, s’il le voulait, pourrait obliger les grandes entreprises technologiques telles que Google et Facebook à respecter la vie privée des gens.
Comme de nombreux services cloud, Ever a offert aux utilisateurs un endroit pour stocker leurs photos. Il est ensuite allé plus loin en utilisant ces photos pour former un algorithme de reconnaissance faciale, qu’il a commercialisé auprès des forces de l’ordre et d’autres clients potentiels. Certains utilisateurs d’Ever ont estimé que leur vie privée avait été violée et la Federal Trade Commission a allégué que la société Everalbum avait agi de manière trompeuse en utilisant la reconnaissance faciale à l’insu des clients et en ne supprimant pas leurs photos lorsqu’ils désactivaient leurs comptes.
Ce qui est vraiment intéressant, ce sont les termes du règlement conclu la semaine dernière. Il ne suffit pas qu’Everalbum supprime les photos en question et obtienne le consentement des consommateurs pour utiliser la reconnaissance faciale. L’entreprise doit également supprimer tous les algorithmes qu’elle a développés avec les photos et vidéos qu’elle a obtenues via l’application (qui a été fermée l’année dernière).
L’accent mis par la FTC sur les algorithmes pourrait créer un puissant précédent. Dans le monde de l’intelligence artificielle, les données des gens ne sont que la matière première: pour Google, les termes de recherche et les clics publicitaires; pour Facebook, les messages que les gens lisent et la durée de leur engagement; pour Amazon, ce que les gens achètent et comment ils le trouvent. Les entreprises utilisent ensuite ces données pour mettre à jour leurs algorithmes – quotidiennement, toutes les heures ou même toutes les minutes – afin d’attirer et de générer des bénéfices auprès de toujours plus de personnes. Les algorithmes sont au cœur du produit. Ils contiennent toutes les connaissances accumulées, y compris les liens les plus récents, les dernières vidéos virales et les nouveaux produits les plus populaires.
Ainsi, lorsque la FTC inflige une amende de 5 milliards de dollars à Facebook pour avoir abusé des données des utilisateurs, comme elle l’a fait en 2019, c’est peut-être cher mais loin d’être fatal. Les actifs les plus précieux – les algorithmes développés par Facebook à partir des données détournées – restent intacts. Comme les corps de patients euthanasiés dans le thriller dystopique «Soylent Green», les informations des gens ont déjà été transformées en produit final, prêt à être transmis au suivant.
Mais que se passerait-il si les autorités demandaient à Facebook de supprimer les parties incriminées de l’algorithme? Et si l’entreprise devait revenir à une version antérieure, avant de commencer à abuser des données? L’IA serait complètement déconnectée: imaginez Facebook servant des articles d’avant les élections de 2016. Se recycler sans les informations manquantes exigerait un effort monumental, qui bousillerait gravement le modèle commercial pendant un certain temps.
Là réside une arme puissante. Si les autorités laissent savoir qu’elles s’en prendront aux algorithmes la prochaine fois qu’elles surprendront quelqu’un qui abuse des données, les entreprises de technologie prendront probablement beaucoup plus au sérieux les problèmes de confidentialité.
Cathy O’Neil est une chroniqueuse d’opinion Bloomberg.