Dans un souci de donner la priorité à la sécurité et de protéger les informations sensibles, Alphabet inc. (NASDAQ :GOOG) (NASDAQ :GOOGL), a suivi les traces de apple Inc. (NASDAQ :AAPL) et Samsung Electronics Co. Ltd (OTC :SSNLF) comme il semblerait interdit l’utilisation interne des chatbots IAy compris sa propre création, Barde.

Que s’est-il passé : google a interdit l’utilisation interne des chatbots IA, rejoignant les rangs d’Apple et de Samsung. Cette décision vise à donner la priorité à la sécurité et à protéger les données confidentielles contre les fuites potentielles.

Google’s Bard tombe également sous le coup de cette interdiction interne, a rapporté Reuters, citant des personnes proches du dossier.

PARTICIPEZ POUR GAGNER 500 $ EN STOCK OU EN crypto

Entrez votre e-mail et vous recevrez également la dernière mise à jour matinale de Benzinga ET une carte-cadeau gratuite de 30 $ et plus encore!

Publicité

Google n’a pas immédiatement répondu à Benzingademande de commentaire.

Voir également: Google entrerait dans la «panique» alors que Samsung considère l’IA Bing de Microsoft comme moteur de recherche par défaut


« Le meilleur rapport que Benzinga ait jamais produit »

Des retours massifs sont possibles sur ce marché ! Pour une durée limitée, accédez au rapport d’initié de Benzinga, généralement à 47 $/mois, pour seulement 0,99 $ ! Découvrez des sélections d’actions extrêmement sous-évaluées avant qu’elles ne montent en flèche ! Le temps presse ! Agissez rapidement et sécurisez votre patrimoine futur grâce à cette réduction incroyable ! Réclamez votre offre de 0,99 $ MAINTENANT !

Publireportage


La société aurait également exhorté ses ingénieurs à s’abstenir d’utiliser directement le code informatique généré par les chatbots. Google a reconnu que Bard peut fournir des suggestions de code qui peuvent ne pas être souhaitées, mais a souligné son utilité pour les programmeurs.

La décision de Google d’interdire aux employés de saisir des informations confidentielles dans les chatbots IA découle du fait que des chatbots à consonance humaine comme Bard et ChatGPT d’OpenAI utiliser l’IA générative pour engager des conversations et répondre aux invites.

Alors que les réviseurs humains peuvent accéder à ces journaux de chat, la recherche a montré que l’IA peut reproduire les données absorbées pendant la formation, ce qui pourrait poser un problème. risque de divulgation non autorisée d’informationsnote le rapport.

Pourquoi c’est important : Cette décision de Google reflète une tendance plus large du secteur à adopter des mesures de sécurité concernant les chatbots IA. D’autres grandes entreprises, dont Samsung, Amazon.com, Inc. (NASDAQ :AMZN) et Banque Allemande (NYSE :BD), ont déjà mis en place des lignes directrices pour réglementer l’utilisation de ces programmes de chatbot.

Bien qu’Apple n’ait fourni aucune déclaration officielle, on pense qu’il a mis en place des interdictions internes similaires.

En mars de cette année, L’Italie a interdit l’utilisation de ChatGPT en raison de problèmes de confidentialité, devenant le premier pays occidental à le faire, bien qu’il ait depuis récemment révoqué cette décision.

Découvrez plus de la couverture Consumer Tech de Benzinga par en suivant ce lien.

Lire la suite : Solutions de harcèlement AirTag : Apple et Google soumettent une proposition pour assurer la sécurité des utilisateurs

© 2023 Benzinga.com. Benzinga ne fournit pas de conseils en investissement. Tous les droits sont réservés.

4.7/5 - (38 votes)
Publicité
Article précédentVoici comment vous pouvez profiter de smartphones moins chers
Article suivantiOS 17 vous aidera à réinitialiser le mot de passe de votre iPhone si vous l’oubliez !
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici