L’intelligence artificielle est déjà capable de faire des choses incroyablement utiles, comme prédire les inondations, diagnostiquer les maladies et traduire instantanément les langues. Les progrès des réseaux de neurones couplés à une énorme puissance de calcul ont permis aux entreprises technologiques de créer des modèles d’IA de plus en plus intelligents au cours de la dernière décennie.

Jeff Dean, le chef de l’IA de Google, pense que nous ne faisons qu’effleurer la surface. S’exprimant à la Conférence TED à Monterey, en Californie, cette semaine, il a révélé que Google développait une IA agile et polyvalente capable d’effectuer des millions de tâches. Appelée Pathways, la solution de Google cherche à centraliser l’IA disparate en un seul algorithme puissant et omniscient.

Google Pathways : une IA polyvalente

« Nous sommes très excités à ce sujet », a déclaré Dean. « Ces types de systèmes de renseignement à usage général qui ont une compréhension plus profonde du monde nous permettront vraiment de nous attaquer à certains des plus grands problèmes auxquels l’humanité est confrontée. »

Par exemple, il a dit : «[w]Nous pourrons concevoir de meilleurs médicaments en infusant ces modèles avec des connaissances en chimie et en physique ; nous pourrons faire progresser les systèmes éducatifs en proposant un tutorat plus individualisé ; nous pourrons nous attaquer à des problèmes vraiment complexes comme le changement climatique, peut-être l’ingénierie de solutions énergétiques propres.

Dean a déclaré que Google Pathways pourrait également raccourcir considérablement le processus de développement de l’apprentissage automatique. « Le grand défi de l’IA est : comment généraliser d’un ensemble de tâches que vous savez déjà faire à de nouvelles tâches, aussi facilement et sans effort que possible ? Si vous pouvez construire ces systèmes qui sont déjà imprégnés de la façon de faire des milliers ou des millions de tâches, alors vous pouvez efficacement leur apprendre à faire une nouvelle chose avec relativement peu d’exemples », a-t-il déclaré, décrivant un avenir dans lequel un ordinateur pourrait saisir un nouveau concept après en avoir vu seulement cinq exemples.

Publicité

Compter avec l’éthique de l’IA

L’optimisme de Dean est tempéré par des inquiétudes croissantes quant à savoir qui conçoit et contrôle les systèmes d’IA du monde.

L’initiative d’apprentissage automatique de Google a fait l’objet d’un examen minutieux ces derniers temps avec le départ de Timnit Gebru et Margaret Mitchell, anciens coprésidents de son équipe d’IA éthique. Gebru a affirmé qu’elle avait été forcée de quitter Google à cause de un papier controversé elle a écrit sur les dangers de la création de modèles d’IA d’apprentissage des langues formés sur de grandes quantités de texte. Comme Karen Hao de Revue technique du MIT expliqué, parce que l’IA de Google dévore le texte d’Internet, « il y a un risque qu’un langage raciste, sexiste et autrement abusif se retrouve dans les données de formation ».

Jeff Dean Et L'Animateur Chris Anderson S'Expriment À Tedmonterey Le 3 Août 2021. Tedmonterey: The Case For Optimism.  Du 1Er Au 4 Août 2021, Monterey, Californie.

Ryan Lash / TED

Questions difficiles : Jeff Dean avec l’animateur de TED Chris Anderson

Dean a évoqué la nécessité d’une collecte de données responsable à la fin de son discours, mais n’a pas approfondi les détails des bourbiers éthiques qui ont miné son domaine et son employeur. Au lieu de cela, il a montré une diapositive avec les principes de l’IA de Google, qui font allusion à ces préoccupations de manière générale. « Les problèmes de données ne sont qu’un aspect de la responsabilité. Nous avons beaucoup de travail à faire ici », a-t-il déclaré.

Les principes de l’IA de Google tirés de la présentation de Dean.

Examiner de manière responsable les intrants et les résultats de l’IA

L’apparition de Dean à TED intervient à un moment où les critiques, y compris employés actuels de Google-sommes appelant à un examen plus approfondi sur le contrôle des grandes technologies sur les systèmes d’IA du monde. Parmi ces critiques, il y en avait un qui a parlé juste après Dean à TED. Codeur Xiaowei R. Wang, directeur créatif du magazine technologique indépendant Logic, a plaidé en faveur d’innovations menées par la communauté. « Au sein de l’IA, il n’y a de raison d’être optimiste que si les personnes et les communautés peuvent défendre elles-mêmes leur cause, au lieu que des personnes comme Jeff Dean et des entreprises comme Google défendent leur cause, tout en fermant les communautés. [that]L’IA pour le bien est censé aider », a-t-elle déclaré. (AI for Good est un mouvement qui cherche à orienter l’apprentissage automatique vers la résolution des problèmes d’équité sociale les plus urgents au monde.)

Le conservateur de TED Chris Andersen et Greg Brockman, co-fondateur du groupe de recherche sur l’éthique de l’IA IA ouverte, a également lutté contre les conséquences imprévues de puissants systèmes d’apprentissage automatique à la fin de la conférence. Brockman a décrit un scénario dans lequel les humains servent de guides moraux à l’IA. « Nous pouvons enseigner au système les valeurs que nous voulons, comme nous le ferions à un enfant », a-t-il déclaré. « C’est un point important mais subtil. Je pense que vous avez besoin du système pour apprendre un modèle du monde. Si vous enseignez à un enfant, il doit apprendre ce qu’est le bien et le mal.

Il y a également de la place pour un certain contrôle une fois que les machines ont été apprises, a suggéré Anderson. « L’un des problèmes clés pour garder cette chose sur la bonne voie est de choisir très soigneusement les personnes qui examinent les résultats de ces systèmes d’apprentissage non supervisés », a-t-il déclaré.

Déjà, des groupes de chercheurs avertissent qu’une IA super intelligente, comme Dean l’a décrite, sera difficile à contrôler. Envisager une étude récente dans le Journal of Artificial Intelligence Research, intitulé La superintelligence ne peut pas être contenue. En tant que co-auteur de l’étude Manuel Cebrian de l’Institut Max Planck pour le développement humain a noté: « [T]voici déjà des machines qui effectuent certaines tâches importantes de manière indépendante sans que les programmeurs comprennent parfaitement comment ils l’ont apprise. La question se pose donc de savoir si cela pourrait à un moment donné devenir incontrôlable et dangereux pour l’humanité.

Rate this post
Publicité
Article précédentLa police arrête 3, dont un gardien de prison, pour avoir vendu des smartphones volés
Article suivantSlam Dunk révèle une nouvelle bande-annonce pour le film 2022
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici