Qu’est-ce qui vient de se passer? De nombreux acteurs de l’industrie technologique ont exprimé leur opinion sur l’IA. Maintenant, le président Joe Biden a donné son point de vue sur le sujet. POTUS a déclaré qu’il reste à voir si l’intelligence artificielle est dangereuse et que les entreprises ont la responsabilité de s’assurer que leurs produits d’IA sont sûrs avant d’être rendus publics.

Les IA génératives telles que ChatGPT ont explosé en popularité au cours des derniers mois, suscitant de l’enthousiasme quant à leurs avantages potentiels et des inquiétudes quant à leur utilisation à des fins malveillantes. L’impact qu’ils pourraient avoir sur les emplois est également préoccupant ; un rapport récent affirme que 300 millions de postes à temps plein dans le monde pourraient être affectés par les IA génératives.

Lors d’une réunion avec le Conseil consultatif du président sur la science et la technologie (PCAST), qui comprend des dirigeants de Microsoft et de Google aux côtés d’universitaires, Biden a déclaré que si l’IA pouvait aider à relever certains des plus grands défis de la société, tels que les maladies et le changement climatique, il doit également aborder les risques potentiels qu’il présente pour la société, la sécurité nationale et l’économie.

Cette semaine, l’Italie est devenue le premier pays occidental à interdire ChatGPT pour sa collecte et son traitement de données personnelles à des fins de formation, l’absence de limite d’âge et les réponses factuellement incorrectes occasionnelles. Le chien de garde italien de la protection des données a également cité le bogue récent qui a vu les titres des requêtes des utilisateurs exposés. L’Allemagne envisage également une interdiction et les législateurs européens tentent d’introduire de nouvelles règles limitant les produits d’IA à haut risque.

2023 03 29 Image 2

Publicité

ChatGPT et les IA génératives similaires semblent à l’abri d’une interdiction aux États-Unis pour le moment, bien que Biden ne soit pas convaincu que la technologie est sans risques. Lorsqu’on lui a demandé si l’IA était dangereuse, il a répondu: « Cela reste à voir. Peut-être. »

« Les entreprises technologiques ont la responsabilité, à mon avis, de s’assurer que leurs produits sont sûrs avant de les rendre publics », a ajouté Biden.

Les dangers de toute IA sans garanties ont été soulignés à plusieurs reprises. Biden a comparé ce problème aux médias sociaux, qui, selon lui, ont déjà causé des dommages en raison de l’absence de certaines restrictions. « En l’absence de garanties, nous voyons l’impact sur la santé mentale, l’image de soi, les sentiments et le désespoir, en particulier chez les jeunes », a déclaré Biden.

Ailleurs, Biden a réitéré une partie de son discours sur l’état de l’Union, appelant le Congrès à adopter une législation bipartite pour empêcher les géants de la technologie de collecter des données personnelles sur les moins de 18 ans en ligne, interdire la publicité ciblée aux enfants et imposer des limites plus strictes aux données personnelles que les entreprises collectent. .

Bien qu’il ne semble pas que la réunion mènera à des politiques liées à l’IA, Russell Wald, directeur général de la politique et de la société à l’Institut Stanford pour l’intelligence artificielle centrée sur l’homme, a déclaré PA que Biden « prépare le terrain pour un dialogue national sur le sujet en attirant l’attention sur l’IA, qui est désespérément nécessaire ».

Rate this post
Publicité
Article précédentNénuphars, bouches d’aération et pneus Fortnite: où les trouver
Article suivantLes pirates utilisent des archives auto-extractibles pour des attaques furtives par porte dérobée
Avatar De Violette Laurent
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici