Google ajoutera à Workspace une fonctionnalité basée sur l’IA destinée à renforcer la productivité des employés en facilitant la recherche d’informations pertinentes.

La société prévoit de lancer des résumés produits par l’IA dans son programme de chat Spaces dans les mois à venir, et dans l’application de vidéoconférence Google Meet l’année prochaine. Google a annoncé plusieurs fonctionnalités de Workspace et des nouvelles sur les téléphones Pixel, le système d’exploitation Android et réalité augmentée (RA) lors de sa conférence des développeurs d’E/S cette semaine.

La fonction de résumé automatisé Spaces est destinée à montrer aux employés les parties critiques d’une discussion de chat sans les forcer à faire défiler une conversation entière. Si un travailleur souhaite en savoir plus sur un élément du résumé, il peut cliquer dessus pour accéder au message de discussion d’origine et l’afficher dans son contexte. Plus tôt cette année, Google a introduit une fonctionnalité similaire qui récapitule les documents texte dans le traitement de texte Docs.

Google ajoutera des résumés à Meet en 2023, après avoir lancé la transcription automatisée de l’application plus tard cette année. Google rattrape son retard avec la transcription d’appels vidéo, en tant que concurrent Équipes Microsoft, Zoom et Cisco Webex offrent déjà la capacité.

Google a déclaré que les résumés automatisés réduiraient le temps dont les employés ont besoin pour trouver des données vitales. Selon un rapport de cabinet de conseil McKinsey, l’employé de bureau moyen passe environ 20 % de la semaine de travail à chercher de l’information interne. Si l’IA peut identifier ces informations, elle libérerait du temps pour des tâches plus productives.

Publicité

Les résumés de chat pourraient être particulièrement utiles pour les équipes réparties dans le monde entier, a déclaré Irwin Lazar, analyste chez Metrigy. Les employés travaillant dans un fuseau horaire différent du reste du groupe peuvent trouver un arriéré de messages de chat lorsqu’ils se connectent le matin.

« Il sera utile et un gain de temps de pouvoir scanner rapidement Spaces et voir les faits saillants de ce qui s’est passé du jour au lendemain », a déclaré Lazar.

YouTube video

Google prévoit également d’utiliser l’IA et l’apprentissage automatique pour améliorer la qualité vidéo et audio dans Meet cette année. L’application améliorera automatiquement la vidéo dans le cloud et une fonction d’éclairage portrait permettra aux employés d’ajouter de la luminosité à certaines parties de leur flux vidéo. Une fonction d’annulation de l’écho de l’IA aidera les travailleurs dans les grands espaces vides à être entendus plus clairement.

Les autres nouvelles d’E/S de Google incluaient les suivantes :

  • Un téléphone Pixel à moindre coût. Le Google Pixel 6a sera lancé le 28 juillet. L’appareil fait partie de la série de téléphones A de Google, qui sont des versions économiques de sa gamme phare Pixel. Le Pixel 6a inclura de nombreuses fonctionnalités du Pixel 6, comme le sous-titrage en direct et la traduction, mais est plus petit et dispose d’un appareil photo moins performant. Le Pixel 6a se vendra 450 $, par opposition au prix de 600 $ de son homologue premium.
  • Le Pixel 7. Google a donné un premier aperçu de la conception de son prochain téléphone phare, mais n’a pas fourni beaucoup de détails. La société a déclaré que le Pixel 7 fonctionnera sur la prochaine génération du système Tensor de Google sur une puce et sera lancé avec Android 13.
  • Fonctionnalités de confidentialité dans Android 13. Google a déclaré que la prochaine version d’Android aura une page unifiée pour tous les paramètres de confidentialité et de sécurité d’un utilisateur. Android 13 forcera les applications à obtenir l’autorisation avant d’afficher des notifications et permettra aux utilisateurs de limiter les photos qu’ils partagent avec les applications. Le système d’exploitation est actuellement en version bêta.
  • AR. Google a montré une vidéo dans laquelle les gens utilisaient un prototype Lunettes AR pour traduire leurs conversations en temps réel mais n’ont pas annoncé de nouvel appareil. La société a également annoncé une API qui permet aux développeurs d’améliorer les expériences de RA dans leurs applications en liant les données Google Maps.
  • Partage des données de santé. Google et Samsung se sont associés pour lancer Health Connect, un ensemble d’API qui gèrent les données de forme physique et de santé des utilisateurs collectées par les téléphones et les montres intelligentes. Les API permettent aux utilisateurs de partager leurs données de santé avec plusieurs applications. Fabriqué à la pomme la surveillance de la santé, un argument de vente pour sa montre, et Google et Samsung cherchent à faire de même pour les smartwatches Android.

Mike Gleason est un journaliste couvrant les communications unifiées et les outils de collaboration. Auparavant, il a couvert des communautés de la région MetroWest du Massachusetts pour le Milford Daily News, Walpole Times, Sharon Avocat et Medfield Presse. Il a également travaillé pour des journaux du centre du Massachusetts et du sud-ouest du Vermont. et a servi en tant que rédacteur local pour Rapiécer. On peut le trouver sur Twitter à l’adresse @MGleason_TT.

Rate this post
Publicité
Article précédentL’iPhone d’Apple battu par la nouvelle technologie radicale de smartphone de Sony
Article suivantFix Microsoft Edge continue d’ouvrir plusieurs onglets
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici