Un groupe d’éthiciens bien connus de l’IA a écrit un contrepoint à la lettre controversée de cette semaine demandant une « pause » de six mois sur le développement de l’IA, la critiquant pour se concentrer sur d’hypothétiques menaces futures alors que les dommages réels sont attribuables à une mauvaise utilisation de la technologie aujourd’hui .
Des milliers de personnes, y compris des noms familiers tels que Steve Wozniak et Elon Musk, ont signé la lettre ouverte de l’institut Future of Life plus tôt cette semaine, proposant que le développement de modèles d’IA comme GPT-4 soit suspendu afin d’éviter « la perte de contrôle de notre civilisation », entre autres menaces.
Timnit Gebru, Emily M. Bender, Angelina McMillan-Major et Margaret Mitchell sont toutes des personnalités majeures dans les domaines de l’IA et de l’éthique, connues (en plus de leur travail) pour avoir été expulsées de google suite à une papier critiquer les capacités de l’IA. Ils travaillent actuellement ensemble au DAIR Institute, une nouvelle équipe de recherche visant à étudier, exposer et prévenir les méfaits associés à l’IA.
Mais ils ne figuraient pas sur la liste des signataires et ont maintenant a publié un reproche appelant l’échec de la lettre à s’attaquer aux problèmes existants causés par la technologie.
« Ces risques hypothétiques sont au centre d’une idéologie dangereuse appelée longtermisme qui ignore les dommages réels résultant du déploiement des systèmes d’IA aujourd’hui », ont-ils écrit, citant l’exploitation des travailleurs, le vol de données, les médias synthétiques qui soutiennent les structures de pouvoir existantes et la poursuite de la concentration. de ces structures de pouvoir entre moins de mains.
Le choix de s’inquiéter d’une apocalypse robotique Terminator ou Matrix est un faux-fuyant alors que nous avons, au même moment, des rapports d’entreprises comme Clearview AI être utilisé par la police pour piéger essentiellement un homme innocent. Pas besoin d’un T-1000 lorsque vous avez des caméras Ring sur chaque porte d’entrée accessible via des usines de garantie en ligne.
Alors que l’équipe DAIR est d’accord avec certains des objectifs de la lettre, comme l’identification des médias synthétiques, ils soulignent que des mesures doivent être prises maintenant, sur les problèmes d’aujourd’hui, avec les remèdes dont nous disposons :
Ce dont nous avons besoin, c’est d’une réglementation qui assure la transparence. Non seulement devrait-il toujours être clair lorsque nous rencontrons des médias synthétiques, mais les organisations qui construisent ces systèmes devraient également être tenues de documenter et de divulguer les données de formation et les architectures modèles. La responsabilité de créer des outils sûrs à utiliser devrait incomber aux entreprises qui construisent et déploient des systèmes génératifs, ce qui signifie que les constructeurs de ces systèmes devraient être tenus responsables des résultats produits par leurs produits.
La course actuelle vers des « expériences d’IA » toujours plus vastes n’est pas une voie prédéterminée où notre seul choix est la vitesse d’exécution, mais plutôt un ensemble de décisions motivées par la recherche du profit. Les actions et les choix des entreprises doivent être façonnés par une réglementation qui protège les droits et les intérêts des personnes.
Il est en effet temps d’agir : mais le centre de nos préoccupations ne doit pas être des « esprits numériques puissants » imaginaires. Au lieu de cela, nous devrions nous concentrer sur les pratiques d’exploitation très réelles et très présentes des entreprises qui prétendent les construire, qui centralisent rapidement le pouvoir et augmentent les inégalités sociales.
Soit dit en passant, cette lettre fait écho à un sentiment que j’ai entendu de la fondatrice d’Uncharted Power, Jessica Matthews, lors de l’événement AfroTech d’hier à Seattle : « Vous ne devriez pas avoir peur de l’IA. Vous devriez avoir peur des gens qui le construisent. (Sa solution : devenez les personnes qui la construisent.)
Bien qu’il soit extrêmement improbable qu’une grande entreprise accepte un jour de suspendre ses efforts de recherche conformément à la lettre ouverte, il est clair, à en juger par l’engagement qu’elle a reçu, que les risques – réels et hypothétiques – de l’IA sont très préoccupants dans de nombreux segments de société. Mais s’ils ne le font pas, peut-être que quelqu’un devra le faire pour eux.