En bref: Certains des plus grands esprits technologiques du monde implorent les chercheurs en intelligence artificielle de suspendre immédiatement les travaux sur la formation de systèmes avancés. Les signataires recommandent aux laboratoires d’utiliser le temps d’arrêt pour développer et mettre en œuvre conjointement des protocoles de sécurité pour la conception avancée de l’IA, qui seraient supervisés par une équipe d’experts externes indépendants.

Dans une lettre ouverte publiée sur le site Web du Future of Life Institute, plus de 1 100 signataires ont exprimé leur inquiétude face à ce qu’ils appellent une course incontrôlable pour développer et déployer des cerveaux numériques de plus en plus puissants dans lesquels nous ne pouvons pas encore comprendre, prédire ou même contrôler de manière fiable.

« Devrions-nous laisser les machines inonder nos canaux d’information de propagande et de contrevérité ? Devrions-nous automatiser toutes les tâches, y compris celles qui sont épanouissantes ? Devrions-nous développer des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devrions-nous risquer de perdre le contrôle ? de notre civilisation? »

L’avertissement se lit comme du fourrage de science-fiction et il y a quelques années à peine, cela aurait pu être le cas. Cependant, ceux qui surveillent l’actualité technologique ont vu des systèmes d’IA de plus en plus performants se lancer les uns après les autres en peu de temps. C’est à la fois fascinant et inquiétant.

Le collectif pense que de puissants systèmes d’IA ne devraient être développés qu’une fois que nous aurons une meilleure compréhension de leurs capacités et que nous serons convaincus que les avantages l’emporteront sur les inconvénients.

Publicité

En tant que tel, le groupe exhorte tous les laboratoires d’IA à suspendre leur formation sur des systèmes plus performants que GPT-4 pendant au moins six mois. Cette rupture doit être transparente et confirmée, impliquant tous les contributeurs significatifs. S’il n’est pas possible de mettre en œuvre l’arrêt rapidement, le groupe recommande que les gouvernements interviennent et appliquent une interdiction temporaire.

2023 03 29 Image 11

Il convient de rappeler que le groupe ne demande pas une pause dans tout le développement de l’IA, mais simplement une pause par rapport à la vitesse vertigineuse à laquelle des systèmes de pointe imprévisibles sont développés et déployés sans en comprendre pleinement toutes les conséquences.

Plusieurs esprits technologiques de haut niveau ont déjà signé la lettre ouverte, notamment le co-fondateur d’Apple Steve Wozniak, Elon Musk, le co-fondateur de Pinterest Evan Sharp, le co-fondateur de Ripple Chris Larsen et Jaan Tallinn, co-fondateur de Skype. Ceux qui sont d’accord avec le message sont invités à ajouter leur signature en signe de soutien public.

Crédit image : Orbe de Michael Dziedzic, Bras par Ceci est l’ingénierie

Rate this post
Publicité
Article précédentCharmes, voitures exotiques, gadgets récupérés alors que l’EFCC attrape 23 fraudeurs à Enugu
Article suivantClassement des 3 vaisseaux spatiaux utilisés par les Gardiens de la Galaxie
Avatar De Violette Laurent
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici