René Van Steenbergen | 3 juin 2021

Le chercheur de l’ISI Jay Pujara et son équipe reçoivent des subventions de Google pour leur projet primé sur la création de modèles probabilistes pour les systèmes d’IA.

Pixabay // Gérald

Pixabay // Gérald

Jay Pujara, professeur adjoint de recherche et directeur de recherche à l’ISI, s’est associé à Lise Getoor, professeur d’informatique et d’ingénierie à l’UC Santa Cruz, et William Wang, professeur adjoint d’informatique à l’UC Santa Barbara, pour un projet de recherche primé . En 2020, les trois chercheurs ont reçu un financement d’environ 400 000 $ de Google pour leurs idées révolutionnaires sur la création de modèles probabilistes pour les systèmes d’IA. Essentiellement, les modèles d’IA probabilistes impliquent d’enseigner à l’IA comment prédire la probabilité d’un événement avec des informations données, telles que l’utilisation des prévisions météorologiques pour prédire l’humeur, qui est ensuite utilisée pour informer les recommandations de restaurants.

Réunissant un solide mélange d’expérience et d’expertise, les trois chercheurs ont décidé de collaborer à nouveau pour leur nouveau projet avec l’aide d’experts de Google.

Bien que des systèmes de recommandation existent déjà et soient largement utilisés, ce modèle passe au niveau supérieur en analysant les indices contextuels pour garantir que chaque prédiction est hautement personnalisée.

« Ce que nous aimerions mettre en place, c’est un modèle qui capture le contexte plus large de ce qu’une personne vit […] et essayez de faire des prédictions dont une personne va se soucier », a déclaré Pujara.

Pour illustrer le rôle du contexte, Pujara explique l’exemple de la façon dont les données météorologiques peuvent informer les recommandations de restaurants. Par une chaude journée de printemps, le système d’IA peut recommander un restaurant avec terrasse extérieure pour un utilisateur, tout en évitant cette recommandation pour un autre utilisateur allergique. Des processus de prise de décision sélectifs comme ceux-ci peuvent sembler une évidence pour la plupart d’entre nous, mais pour les modèles d’IA, l’effet du contexte sur la prise de décision peut être très difficile à saisir.

Pujara, Getoor et Wang ne sont pas des collaborateurs pour la première fois – Getoor était le directeur de doctorat de Pujara pendant son séjour à l’UCSC, et le couple a travaillé ensemble sur divers projets depuis. Pujara a rencontré Wang alors qu’il était étudiant invité à Carnegie Mellon sous la direction de William Cohen, leur conseiller actuel chez Google.

L’un des principaux intérêts de l’équipe est la logique logicielle probabiliste (PSL), un cadre pour la construction de modèles probabilistes qui exploitent les relations. PSL rend l’IA capable de gérer des niveaux d’incertitude et de flexibilité qui restent difficiles pour les systèmes d’apprentissage automatique. Essentiellement, ces systèmes de recommandation seraient capables de prédire les préférences et de faire des suggestions basées sur une combinaison complexe de données contextuelles, de données relationnelles et de raisonnement.

“L’objectif de PSL est de capturer les relations logiques entre les choses d’une manière qui prend en compte l’incertitude de la probabilité – cette vision humaine du monde où les choses ne sont pas “si, alors” mais “si, probablement””, a expliqué Pujara.

Dans ce projet, Pujara et son équipe recherchent la meilleure façon d’obtenir un modèle d’IA plus conscient en utilisant la formation au dialogue. Actuellement, les robots IA tels que Siri et Alexa d’Amazon sont utiles pour nos besoins d’information, mais ils ne peuvent pas se connecter ou nous comprendre à un niveau plus personnel comme le peuvent les autres humains. En utilisant PSL comme cadre, le dialogue avec les robots IA a le potentiel d’être plus percutant et significatif.

Actuellement, Pujara travaille avec une cohorte d’étudiants de l’USC pour étoffer davantage la perspective d’un bot d’IA compréhensif et empathique. Mais pour parvenir à la création d’un bot d’IA de type humain, il faut beaucoup de travail pour déchiffrer les informations implicites que nous tenons souvent pour acquises dans les interactions humaines.

Leave a Reply