Dans le contexte: Faire en sorte que les machines comprennent les interactions en langage naturel est beaucoup plus difficile qu’il n’y paraissait au départ. Beaucoup d’entre nous ont appris cela dans une certaine mesure au début des assistants vocaux, lorsque ce qui semblait être des demandes d’informations très raisonnables finissait souvent par recevoir des réponses frustrantes et absurdes. Il s’avère que les êtres humains sont beaucoup plus aptes à comprendre les nuances subtiles (ou les différences très évidentes) entre ce que quelqu’un voulait dire et ce qu’il a réellement dit.

Depuis qu’Amazon a introduit Alexa via ses haut-parleurs intelligents Echo, j’ai rêvé du jour où je pourrais simplement parler aux appareils et leur faire faire ce que je voulais qu’ils fassent. Malheureusement, nous n’en sommes pas encore là, mais nous nous en rapprochons un peu.

L’un des problèmes apparents lors de la compréhension du langage naturel est que la structure et la syntaxe du langage parlé que nous comprenons tous intuitivement doivent souvent être décomposées en de nombreux sous-composants différents avant de pouvoir être « comprises » par les machines.

Cela signifie que l’évolution de l’intelligence artificielle a été plus lente que beaucoup ne l’espéraient en raison de la nécessité de déterminer les étapes incrémentielles nécessaires pour donner un sens à une demande donnée. Même aujourd’hui, certains des modèles d’IA en langage naturel les plus sophistiqués se heurtent à des obstacles lorsqu’il s’agit de faire tout type de raisonnement simple qui nécessite le type de réflexion indépendante qu’un jeune enfant peut faire.

En plus de cela, lorsqu’il s’agit d’appareils intelligents axés sur la maison – où les machines alimentées par un assistant vocal continuent de faire leur marque – il y a eu une multitude frustrante de normes incompatibles qui ont rendu physiquement difficile le fonctionnement des appareils ensemble. .

Publicité

Heureusement, la nouvelle norme Matter, qu’Amazon, Apple, Google et bien d’autres prévoient de prendre en charge, contribue grandement à résoudre ce défi. En conséquence, le problème très réel de faire fonctionner ensemble de manière transparente plusieurs appareils de différents fournisseurs ou même de différents écosystèmes de maisons intelligentes pourrait bientôt n’être plus qu’un lointain souvenir.

2022 07 20 Image 15

Avec tout ce contexte à l’esprit, les nombreuses annonces différentes axées sur les développeurs qu’Amazon a faites à Alexa en direct 2022 avoir encore plus de sens. La société a lancé le Kit de connexion SDK pour la Matière. Cela étend une gamme de services de connexion Amazon à tout appareil compatible Matter qui le prend en charge. Cela signifie que les entreprises qui construisent des appareils domestiques intelligents peuvent tirer parti du travail effectué par Amazon pour des fonctionnalités essentielles telles que la connectivité cloud, les mises à jour logicielles OTA, la journalisation des activités, les mesures, etc. L’objectif est d’obtenir une base de fonctionnalités qui encouragera les utilisateurs à acheter et à installer plusieurs produits de maison intelligente compatibles avec Matter.

Bien sûr, une fois les appareils connectés, ils doivent toujours communiquer entre eux de manière intelligente pour offrir plus de fonctionnalités. Pour y remédier, Amazon a également dévoilé le Kit de développement Alexa Ambient Homequi combine des services et des API logicielles permettant à plusieurs appareils de fonctionner ensemble facilement et silencieusement en arrière-plan.

Amazon et d’autres appellent cela « l’informatique ambiante », car il est destiné à fournir un maillage de services informatiques essentiellement invisibles. La première version de ce kit de développement comprend des API Home State pour faire des choses comme mettre simultanément tous vos appareils domestiques intelligents dans différents modes (tels que Sleep, Dinner Time, Home, etc.). Les API de sûreté et de sécurité envoient automatiquement les alarmes des capteurs connectés, tels que les détecteurs de fumée, à d’autres appareils et applications connectés pour s’assurer que les alarmes sont remarquées/entendues. L’API pour les informations d’identification facilite la configuration des utilisateurs sur plusieurs appareils en partageant les informations d’identification du réseau Thread (un élément clé de la norme Matter), afin que les utilisateurs n’aient pas à le faire plus d’une fois.

En parlant de configuration plus facile, Amazon a également annoncé son intention de laisser ses fonctionnalités « Configuration sans frustration » être utilisées par des appareils non Amazon achetés dans d’autres magasins de détail. La société prévoit de tirer parti de la norme Matter pour permettre cela, soulignant une fois de plus à quel point Matter sera important pour les futurs appareils.

2022 07 20 Image 17

Pour ceux qui travaillent avec des interfaces vocales, Amazon s’efforce d’activer certaines des premières capacités réelles pour un développement de l’industrie appelé Voice Interoperability Initiative, ou VII.

Annoncé pour la première fois en 2019, VII est conçu pour permettre à plusieurs assistants vocaux de travailler ensemble de manière transparente afin de fournir des interactions plus complexes. Amazon a déclaré qu’il travaillait avec Skullcandy et Native Voice pour permettre l’utilisation d’Alexa avec les assistants et commandes « Hey Skullcandy » en même temps. Par exemple, vous pouvez utiliser « Hey Skullcandy » pour activer le contrôle vocal des paramètres du casque et de la lecture multimédia, mais également demander à Alexa les derniers titres de l’actualité et les lire sur les écouteurs Skullcandy.

Le SDK Alexa Voice Service (AVS) 3.0 a fait ses débuts pour combiner les capacités d’Alexa avec le SDK Alexa Smart Screen précédemment séparé pour générer des réponses basées sur un écran intelligent. L’utilisation de cela permettrait aux entreprises de faire des choses comme avoir une interface vocale avec des confirmations visuelles à l’écran ou de créer des interfaces multimodales qui tirent parti des deux en même temps.

Enfin, Amazon a également dévoilé une foule de nouveautés Compétences, des outils de développement des compétences, de promotion des compétences et d’éducation aux compétences conçus pour aider les développeurs qui souhaitent créer des « applications » de compétences pour l’écosystème Alexa sur une large gamme d’appareils différents, y compris les téléviseurs, les PC, les tablettes, les écrans intelligents, les voitures, etc. Au total, il semble s’agir d’une gamme complète de fonctionnalités qui devraient faire une différence tangible pour ceux qui souhaitent tirer parti de la base installée d’environ 300 millions d’appareils compatibles Alexa.

Malheureusement, parcourir des menus à écran à plusieurs niveaux, appuyer sur de nombreuses combinaisons de boutons et essayer de comprendre l’état d’esprit des ingénieurs qui ont conçu les interfaces utilisateur est toujours la réalité de nombreux gadgets aujourd’hui. Pour ma part, j’ai hâte de pouvoir faire quelque chose comme brancher un nouvel appareil, lui dire de connecter mes autres appareils, le faire me parler via un haut-parleur connecté pour me dire qu’il l’a fait (ou s’il ne l’a pas fait ‘ t, ce qui doit être fait pour résoudre ce problème), répondre aux questions sur ce qu’il peut et ne peut pas faire et comment je peux le contrôler, et enfin, me tenir au courant verbalement de tout problème pouvant survenir ou de nouvelles capacités il acquiert.

Alors que ces nouveaux outils et capacités commencent à être déployés, le potentiel d’un contrôle vocal beaucoup plus facile d’une multitude d’appareils numériques se rapproche de plus en plus.

Bob O’Donnell est le fondateur et analyste en chef de TECHnalysis Research, LLC une société de conseil en technologie qui fournit des services de conseil stratégique et d’étude de marché à l’industrie technologique et à la communauté financière professionnelle. Vous pouvez le suivre sur Twitter @bobodtech.


Rate this post
Publicité
Article précédentFortnite Parrainez un ami 2022
Article suivantTrouvez votre chemin vers une équipe d’administrateurs système solide
Avatar De Violette Laurent
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici