Rédiger un rapport sur l’état de l’IA doit ressembler un peu à construire sur des sables mouvants : au moment où vous publiez, l’ensemble de l’industrie a changé sous vos pieds. Mais il existe encore des tendances et des points à retenir importants dans L’offre de 386 pages de Stanford pour résumer ce domaine complexe et en évolution rapide.
L’AI Index, de l’Institut pour l’intelligence artificielle centrée sur l’humain, a travaillé avec des experts du monde universitaire et du secteur privé pour collecter des informations et des prédictions sur le sujet. En tant qu’effort annuel (et vu son ampleur, vous pouvez être sûr qu’ils travaillent déjà dur pour préparer le prochain), ce n’est peut-être pas la version la plus récente de l’IA, mais ces vastes enquêtes périodiques sont importantes pour garder le doigt sur l’IA. à l’écoute de l’industrie.
Le rapport de cette année comprend « une nouvelle analyse des modèles de base, y compris leurs coûts géopolitiques et de formation, l’impact environnemental des systèmes d’IA, l’enseignement de l’IA de la maternelle à la 12e année et les tendances de l’opinion publique en matière d’IA », ainsi qu’un aperçu des politiques dans une centaine de nouveaux pays.
Énumérons simplement les points à retenir de plus haut niveau :
- Au cours de la dernière décennie, le développement de l’IA est passé du stade universitaire à celui de l’industrie, dans une large mesure, et cela ne montre aucun signe de changement.
- Il devient difficile de tester des modèles sur des critères de référence traditionnels et un nouveau paradigme peut être nécessaire ici.
- L’empreinte énergétique de la formation et de l’utilisation de l’IA devient considérable, mais nous n’avons pas encore vu comment elle pourrait accroître l’efficacité ailleurs.
- Le nombre d’« incidents et controverses liés à l’IA » a été multiplié par 26 depuis 2012, ce qui semble effectivement un peu faible.
- Les compétences et les offres d’emploi liées à l’IA augmentent, mais pas aussi vite qu’on pourrait le penser.
- Cependant, les décideurs politiques s’efforcent d’écrire un projet de loi définitif sur l’IA, une tâche insensée s’il en est.
- Les investissements sont temporairement au point mort, mais cela après une augmentation astronomique au cours de la dernière décennie.
- Plus de 70 % des répondants chinois, saoudiens et indiens estiment que l’IA présente plus d’avantages que d’inconvénients. Les Américains? 35%.
Mais le rapport aborde en détail de nombreux sujets et sous-thèmes et est assez lisible et non technique. Seuls ceux qui sont dévoués liront les 386 pages d’analyse, mais en réalité, à peu près n’importe quel organisme motivé pourrait le faire.
Examinons le chapitre 3, Éthique technique de l’IA, un peu plus en détail.
Les biais et la toxicité sont difficiles à réduire à des mesures, mais dans la mesure où nous pouvons définir et tester des modèles pour ces choses, il est clair que les modèles « non filtrés » sont beaucoup plus faciles à mener en territoire problématique. Le réglage des instructions, c’est-à-dire l’ajout d’une couche de préparation supplémentaire (comme une invite cachée) ou le passage de la sortie du modèle via un deuxième modèle médiateur, est efficace pour améliorer ce problème, mais il est loin d’être parfait.
L’augmentation des « incidents et controverses liés à l’IA » évoquée dans les puces est mieux illustrée par ce diagramme :
Comme vous pouvez le constater, la tendance est à la hausse et ces chiffres sont antérieurs à l’adoption généralisée de ChatGPT et d’autres grands modèles linguistiques, sans parler de la vaste amélioration des générateurs d’images. Vous pouvez être sûr que l’augmentation de 26x n’est qu’un début.
Rendre les modèles plus justes ou impartiaux dans un sens peut avoir des conséquences inattendues sur d’autres mesures, comme le montre ce diagramme :
Comme le note le rapport, « les modèles linguistiques qui fonctionnent mieux sur certains critères d’équité ont tendance à avoir des préjugés sexistes plus graves ». Pourquoi? C’est difficile à dire, mais cela montre que l’optimisation n’est pas aussi simple que tout le monde l’espère. Il n’existe pas de solution simple pour améliorer ces grands modèles, en partie parce que nous ne comprenons pas vraiment leur fonctionnement.
La vérification des faits est l’un de ces domaines qui semble être un choix naturel pour l’IA : après avoir indexé une grande partie du Web, elle peut évaluer des déclarations et donner l’assurance qu’elles sont étayées par des sources véridiques, et ainsi de suite. C’est très loin d’être le cas. En réalité, l’IA est particulièrement mauvaise pour évaluer la réalité et le risque n’est pas tant qu’elle devienne un vérificateur peu fiable, mais plutôt qu’elle devienne elle-même de puissantes sources de désinformation convaincante. Un certain nombre d’études et d’ensembles de données ont été créés pour tester et améliorer la vérification des faits par l’IA, mais jusqu’à présent, nous en sommes encore plus ou moins au point de départ.
Heureusement, il y a un fort regain d’intérêt ici, pour la raison évidente que si les gens sentent qu’ils ne peuvent pas faire confiance à l’IA, l’ensemble du secteur est en retrait. Il y a eu une augmentation considérable du nombre de soumissions à la conférence ACM sur l’équité, la responsabilité et la transparence, et chez NeurIPS, les questions telles que l’équité, la confidentialité et l’interprétabilité font l’objet de plus d’attention et de temps de parole.
Ces faits marquants laissent beaucoup de détails sur la table. Cependant, l’équipe HAI a fait un excellent travail en organisant le contenu et après en parcourant les trucs de haut niveau icitu peux Télécharger le document complet et approfondissez tout sujet qui suscite votre intérêt.