Connectez-vous avec les meilleurs leaders du jeu à Los Angeles lors du GamesBeat Summit 2023 les 22 et 23 mai. Inscrivez-vous ici.


La montée en flèche de la popularité des chatbots IA nous a amenés à un moment charnière qui aura des effets durables sur notre vision collective du monde. ChatGPT est désormais l’application qui connaît la croissance la plus rapide de l’histoire, avec plus de 100 millions d’utilisateurs et plus de 10 millions de requêtes par jour. Les entreprises du Fortune 500 l’adoptent sans tenir compte des implications futures, créant un effet de volant qui multiplie sa portée à travers les entreprises qui adoptent la technologie.

L’IA générative peut avoir des conséquences imprévues, et l’une des plus importantes est le pouvoir qu’elle confère à la culture qui l’a créée. La popularité sans précédent de ChatGPT a ironiquement fait d’OpenAI une entreprise à but lucratif et fermée avec un contrôle plus strict sur ChatGPT et des détails opaques concernant son approche d’apprentissage, comme en témoigne la récente version de ChatGPT-4. Au fur et à mesure que cette technologie prolifère, sa capacité à propager la désinformation avec une confiance alarmante augmente également. Si rien n’est fait, ses préjugés implicites risquent d’anéantir des décennies de progrès vers une société diversifiée et multiculturelle.

Les voyants d’avertissement clignotent ; il est impératif que ceux qui produisent cette technologie reconnaissent et assument la responsabilité de son impact potentiellement profond sur la société.

ChatGPT est biaisé – il suffit de lui demander

L’IA n’est pas une entité neutre. ChatGPT, par exemple, reconnaît que ses réponses sont intrinsèquement biaisées et chargées de préjugés implicites. Cela est principalement dû au fait que l’ensemble de données utilisé pour le développer est rempli de biais et de préjugés humains.

Publicité

Événement

Sommet GamesBeat 2023

Rejoignez la communauté GamesBeat à Los Angeles les 22 et 23 mai. Vous entendrez les esprits les plus brillants de l’industrie du jeu partager leurs mises à jour sur les derniers développements.

Inscrivez-vous ici

ChatGPT a été développé grâce à des algorithmes conçus par des humains pour apprendre du monde numérique, qui tend à refléter les sociétés les plus interconnectées et numériques. Cette manifestation conduira inévitablement à une nouvelle exacerbation de la fracture numérique. De plus, les employés d’Open AI doivent corriger manuellement l’algorithme pour empêcher ChatGPT de produire des réponses inappropriées. Le jugement des créateurs de l’algorithme le guide pour qu’il se comporte d’une manière qui les rend à l’aise et confiants. Par conséquent, les points de vue de l’algorithme sur les questions politiques, l’état de la société et de la technologie et les préférences pour les activités (telles que les activités aisées, comme les vacances à Hawaï ou les parcs nationaux en Californie, à titre d’exemples hypothétiques) ne sont pas créés dans une perspective universelle mais plutôt à partir d’activités spécifiques. points de vue. En bref, le système de valeurs de ChatGPT reflète les systèmes de valeurs des personnes qui l’ont développé.

Pourquoi est-ce problématique ? Parce qu’elle impose un ensemble particulier de principes aux personnes du monde entier qui utilisent la technologie. Les gens ont des vies, des économies, des cultures et des compréhensions du monde très différentes qui ne sont pas reflétées dans les résultats. ChatGPT agrège des informations à partir d’une grande quantité de données linguistiques de différents auteurs pour créer ses réponses aux questions. Chaque fois que de nombreuses données sont agrégées et apprises statistiquement, cela tend à minimiser la représentation des groupes marginalisés. Nous risquons d’effacer les détails de la tapisserie globale en l’unifiant sous une vision algorithmique singulière.

Dryoon
Dryoon
Dr Songyee Yoon, Président Et Directeur De La Stratégie De Ncsoft.

Ce n’est pas seulement la fonction de l’outil qui pousse vers ce résultat, c’est aussi l’interface. L’ère numérique moderne nous a conditionnés à adopter la sécurité de nos interactions en ligne, nous prédisposant à croire en l’intention bienveillante des services qui alimentent notre vie quotidienne. À quand remonte la dernière fois que vous avez lu et compris le contenu d’un CLUF qu’on vous demandait de signer ? Ou qui a apporté les modifications à la page Wikipédia où vous avez recueilli des informations ? Les interfaces attrayantes des moteurs de recherche, des plateformes de médias sociaux et désormais des applications d’IA génératives créent un sentiment de confiance chez l’utilisateur, ce qui supprime notre curiosité quant à l’intention commerciale ou éthique du service.

Personne n’aurait prédit que ChatGPT ou ses concurrents exploseraient en popularité si rapidement. Il faut plus de temps pour sensibiliser aux risques inhérents à leur large adoption. Avec les récents licenciements technologiques dans le domaine de l’éthique et de la sécurité de l’IA (comme ceux de Microsoft), et moins de transparence avec le développement de ChatGPT d’OpenAI, il n’y a pas de garde-corps clairs nous demandant comment ChatGPT peut avoir un impact sur le monde. L’adoption généralisée par le public, combinée à un manque de transparence et d’autorégulation des entreprises, fait peser la menace que la population mondiale catalysera par inadvertance une vision du monde monolithique qui l’emporte sur la myriade d’expressions de la culture humaine.

ChatGPT et colonialisme numérique

L’assimilation culturelle et la propagande ont longtemps été utilisées comme outils pour imposer certaines valeurs aux populations. Les pays colonisés ont souvent été contraints de rejeter leur héritage culturel et d’adopter les règles et les normes de leurs suzerains.

Avec la portée mondiale de ChatGPT, le risque est que son produit soit considéré comme un fait et la norme à suivre, propageant tacitement les valeurs et les visions du monde de ses concepteurs. Ce n’est pas un phénomène nouveau dans l’histoire de l’humanité. Par exemple, lorsque les Britanniques ont introduit la médecine occidentale en Inde, ils ont découragé et invalidé les pratiques plus anciennes de la médecine traditionnelle indienne. Pendant la colonisation de l’Amérique du Nord, une grande partie de la population indigène a été forcée d’abandonner sa langue maternelle et d’adopter le christianisme dans l’éducation et le commerce, ce qui a à son tour homogénéisé les communautés et les groupes de population.

ChatGPT a une capacité encore plus grande d’effacer l’identité culturelle des vues non occidentales grâce à sa facilité d’accès à une échelle mondiale massive. Lorsqu’un étudiant d’un autre continent utilise ChatGPT pour poser une question, la réponse qui revient passera instantanément au crible des algorithmes créés à partir d’un point de vue agrégé et singulier. L’outil n’a pas la nuance de distinguer l’expérience personnelle de l’utilisateur, les valeurs familiales fondamentales ou les différentes visions du monde. Pourtant, les présupposés auxquels ces résultats conduisent auront un impact culturel profond. Les utilisateurs qui n’ont pas la même éducation occidentale risquent de se mettre involontairement en position de subir un lavage de cerveau.

Cependant, créer d’innombrables chambres d’écho et y isoler les individus n’est pas la solution. Plutôt que de promouvoir la technologie au hasard à une vitesse maximale, nous devons préparer le monde et son public à l’utiliser et à l’apprécier de manière critique. La devise de la Silicon Valley de « bouger vite et casser les choses » ne devrait pas s’appliquer ici. La culture mondiale est trop fragile et précieuse pour être brisée sous cette devise, et les dommages potentiels seraient irréversibles. Nous devons reconnaître ces risques, procéder avec prudence et veiller à ce que l’IA soit développée de manière responsable pour créer une société plus équitable et diversifiée. La militarisation de ces outils peut être involontaire, mais notre résolution de leurs problèmes ne peut être ignorée.

La société n’est pas préparée pour le chemin à parcourir

Nous nous sommes battus pendant des générations pour embrasser la diversité et respecter le patrimoine culturel de chacun. Nous avons célébré que la vertu surgit à travers une pluralité de formes. Cependant, une technologie d’intelligence artificielle telle que ChatGPT risque d’inverser par inadvertance tout ce que nous avons accompli en offrant une perspective à travers une lentille dominante. En tant que tel, il devient impératif pour ceux qui produisent cette technologie de reconnaître et d’assumer la responsabilité de l’impact involontaire mais potentiellement profondément nocif sur la société. Vont-ils? Ont-ils suffisamment de motivation personnelle et d’incitation sociétale pour le faire ? C’est la grande question et préoccupation.

Les entreprises développant des chatbots et d’autres produits d’IA générative et les gouvernements réglementant ces technologies doivent adopter une norme commune d’éthique et de transparence concernant le développement de ces types d’outils afin que les utilisateurs soient en mesure de comprendre pleinement les implications de leur pouvoir. Le collectif diversifié du monde moderne que nous avons tous lutté si fort pour créer est en jeu.

Le Dr Songyee Yoon est président et directeur de la stratégie de NCSoft.

Le credo de GamesBeat lorsque couvrir l’industrie du jeu vidéo est « là où la passion rencontre les affaires ». Qu’est-ce que cela signifie? Nous voulons vous dire à quel point l’actualité compte pour vous, non seulement en tant que décideur dans un studio de jeux, mais aussi en tant que fan de jeux. Que vous lisiez nos articles, écoutiez nos podcasts ou regardiez nos vidéos, GamesBeat vous aidera à en savoir plus sur l’industrie et à vous engager avec elle. Découvrez nos Briefings.

4.5/5 - (39 votes)
Publicité
Article précédentDes chercheurs de Hong Kong découvrent de nouvelles espèces de méduses-boîtes
Article suivantLa date de sortie de la mise à jour 24.30 de Fortnite révélée, alors qu’Epic publie une mise à jour surprise en milieu de semaine | Jeux | Divertissement
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici