Google fait beaucoup de choses stupides. Toutes les grandes entreprises sont les mêmes à cet égard. Mais il faut un effort particulier pour faire quelque chose de vraiment terrible. C’est là que le projet Nimbus de Google entre en jeu.
Le projet Nimbus est un effort conjoint de Google, d’Amazon et du gouvernement israélien qui fournit des capacités de surveillance futuristes grâce à l’utilisation de modèles avancés d’apprentissage automatique. Qu’on le veuille ou non, cela fait partie de l’avenir de la sécurité de l’État, et ce n’est pas plus terrible que beaucoup d’autres projets similaires. Beaucoup d’entre nous utilisent même une technologie similaire dans et autour de nos maisons.
Là où les choses deviennent sombres et laides, c’est ce que Google dit à propos des capacités du projet Nimbus utilisant la technologie de l’entreprise:
Les documents de formation Nimbus mettent l’accent sur « les capacités de détection des visages, des repères faciaux, des émotions » de l’API Cloud Vision de Google », et dans un webinaire de formation Nimbus, un ingénieur de Google a confirmé à un client israélien qu’il serait possible de « traiter des données via Nimbus afin de déterminer si quelqu’un ment ».
Oui, l’entreprise qui nous a donné les algorithmes YouTube incroyablement mauvais veut maintenant vendre des algorithmes pour déterminer si quelqu’un ment à la police. Laissez cela s’enfoncer. C’est une science qui Microsoft a abandonné (s’ouvre dans un nouvel onglet) en raison de ses problèmes inhérents.
Malheureusement, Google n’est pas du tout d’accord qu’il représailles contre des personnes dans l’entreprise qui s’y opposent.
Je ne vais pas m’attarder trop profondément dans la politique en jeu ici, mais l’ensemble du projet a été conçu pour que le gouvernement israélien puisse cacher ce qu’il fait. Selon Jack Poulson, ancien responsable de la sécurité pour Google Enterprise, l’un des principaux objectifs du projet Nimbus est « d’empêcher le gouvernement allemand de demander des données relatives aux Forces de défense israéliennes à la Cour pénale internationale », selon L’interception. (Israël commettrait des crimes contre l’humanité contre les Palestiniens, selon l’interprétation des lois par certaines personnes.)
Vraiment, cependant, peu importe ce que vous pensez du conflit entre Israël et la Palestine. Il n’y a aucune bonne raison de fournir ce genre de technologie à un gouvernement à quelque échelle que ce soit. Cela rend Google mauvais.
Les capacités supposées de Nimbus sont effrayantes, même si l’API Cloud Vision de Google était correcte à 100%, 100% du temps. Imaginez des caméras corporelles de police qui utilisent l’IA pour vous aider à décider de vous inculper et de vous arrêter. Tout devient terrifiant quand on considère à quelle fréquence Les systèmes de vision d’apprentissage automatique se trompentbien que.
Ce n’est pas seulement un problème de Google. Tout ce que vous avez à faire est de regarder la modération de contenu sur YouTube, Facebook ou Twitter. 90% du travail initial est effectué par des ordinateurs utilisant des algorithmes de modération qui prennent de mauvaises décisions beaucoup trop fréquemment. Le projet Nimbus ferait plus que simplement supprimer votre commentaire narquois, cependant, cela pourrait vous coûter la vie.
Aucune entreprise n’a d’activité à fournir ce type d’IA jusqu’à ce que la technologie ait mûri à un état où elle n’est jamais mauvaise, et cela n’arrivera jamais.
Regardez, je suis tout à fait pour trouver les méchants et faire quelque chose à leur sujet comme la plupart des autres. Je comprends que l’application de la loi, qu’il s’agisse d’un service de police local ou de Tsahal, est un mal nécessaire. L’utilisation de l’IA pour ce faire est un inutile mauvais.
Je ne dis pas que Google devrait simplement s’en tenir à l’écriture du logiciel qui alimente le téléphones que vous aimez et ne pas essayer de se diversifier. Je dis simplement qu’il y a une bonne et une mauvaise façon – Google a choisi la mauvaise façon ici, et maintenant c’est bloqué parce que le les conditions de l’accord ne permettent pas à Google de cesser de participer.
Vous devriez vous faire votre propre opinion et ne jamais écouter quelqu’un sur Internet qui a une boîte à savon. Mais vous devriez aussi être bien informé lorsqu’une entreprise qui a été fondée sur le principe de « Ne soyez pas méchant » tourne la boucle et devient le mal dont elle nous a mis en garde.