Dancey utilise des méthodes éprouvées telles que demander aux étudiants d’identifier leur « point le plus boueux » – un concept ou une idée avec lequel elle a dit que les étudiants ont encore du mal – après une conférence ou une discussion. « Je leur demande de l’écrire, de le partager et nous l’abordons comme une classe pour le bénéfice de tous », a-t-elle déclaré.

Mais Intel et Classroom Technologies, qui vend des logiciels d’école virtuelle appelés Classe, pensent qu’il pourrait y avoir un meilleur moyen. Les entreprises se sont associées pour intégrer une technologie basée sur l’IA développée par Intel avec Class, qui fonctionne sur Zoom. Intel affirme que son système peut détecter si les étudiants s’ennuient, sont distraits ou confus en évaluant leurs expressions faciales et la façon dont ils interagissent avec le contenu éducatif.

« Nous pouvons donner à l’enseignant des informations supplémentaires pour lui permettre de mieux communiquer », a déclaré Michael Chasen, cofondateur et PDG de Classroom Technologies, qui a déclaré que les enseignants avaient eu du mal à interagir avec les élèves dans des environnements de classe virtuelle tout au long de la pandémie.

Son entreprise prévoit de tester la technologie d’analyse de l’engagement des étudiants d’Intel, qui capture des images des visages des étudiants avec une caméra d’ordinateur et une technologie de vision par ordinateur et les combine avec des informations contextuelles sur ce sur quoi un étudiant travaille à ce moment-là pour évaluer l’état de compréhension d’un étudiant. Intel espère transformer la technologie en un produit qu’il peut distribuer plus largement, a déclaré Sinem Aslan, chercheur scientifique chez Intel, qui a aidé à développer la technologie.

« Nous essayons de permettre un tutorat individuel à grande échelle », a déclaré Aslan, ajoutant que le système est destiné à aider les enseignants à reconnaître quand les élèves ont besoin d’aide et à informer sur la façon dont ils pourraient modifier le matériel éducatif en fonction de la façon dont les élèves interagissent avec le contenu éducatif. « Des niveaux élevés d’ennui mèneront [students to] zoner complètement hors du contenu éducatif », a déclaré Aslan.

Publicité

Mais les critiques soutiennent qu’il n’est pas possible de déterminer avec précision si quelqu’un s’ennuie, se sent confus, heureux ou triste en fonction de ses expressions faciales ou d’autres signaux externes.

Certains chercheurs ont constaté que parce que les gens s’expriment à travers des dizaines ou des centaines d’expressions faciales subtiles et complexes, de gestes corporels ou de signaux physiologiques, catégorisant leur état avec un l’étiquette unique est une approche mal adaptée. D’autres recherches indiquent que les gens communiquent des émotions telles que la colère, la peur et la surprise d’une manière qui varient d’une culture à l’autre et les situations, et la façon dont elles expriment les émotions peut fluctuer au niveau individuel.

« Les étudiants ont différentes façons de présenter ce qui se passe à l’intérieur d’eux », a déclaré Todd Richmond, éducateur de longue date et directeur du Tech and Narrative Lab et professeur à la Pardee RAND Graduate School. « Cet étudiant distrait à ce moment-là peut être l’état approprié et nécessaire pour lui à ce moment de sa vie », a-t-il déclaré, s’il est confronté à des problèmes personnels, par exemple.

L’IA émotionnelle controversée s’infiltre dans la technologie quotidienne

La salle de classe n’est qu’une arène où l’« IA émotionnelle » controversée trouve son chemin dans les produits technologiques quotidiens et suscite l’intérêt des investisseurs. Il s’infiltre également dans livraison et véhicules de tourisme et ventes virtuelles et un logiciel de service à la clientèle. Après le rapport de Protocol de la semaine dernière sur l’utilisation de cette technologie sur les appels de vente, Fight for the Future a lancé une campagne exhortant Zoom à ne pas adopter la technologie dans son logiciel de vidéoconférence presque omniprésent.

À ce stade précoce, il n’est pas clair comment la technologie d’Intel sera intégrée au logiciel Class, a déclaré Chasen, qui a déclaré qu’il s’attendait à ce que la société s’associe à l’un des collèges avec lesquels elle travaille déjà pour évaluer le système Intel. Chasen a déclaré à Protocol que Classroom Technologies ne payait pas Intel pour tester la technologie. Class est soutenu par des investisseurs tels que le quarterback de la NFL Tom Brady, le co-fondateur d’AOL Steve Case et Salesforce Ventures.

Intel a établi des partenariats pour aider à distribuer d’autres formes naissantes d’IA qu’il a construites. Par exemple, dans l’espoir de produire un système qui transforme les données en visualisant les articulations et mouvements squelettiques dans l’analyse Pour surveiller et améliorer les performances athlétiques, la société s’est associée à l’Université Purdue et à l’application de dépistage de football AiScout.

Éducateurs et des groupes de défense des droits ont tiré la sonnette d’alarme concernant la surveillance excessive des élèves et les atteintes à la vie privée associées à la reconnaissance faciale déployée dans les écoles à des fins d’identification et de sécurité. Ces préoccupations se sont accélérées à mesure que les logiciels basés sur l’IA ont été utilisés plus souvent que jamais pendant la pandémie, y compris les technologies qui surveillent le comportement des élèves dans l’espoir de prévenir tricherie pendant les tests virtuels et des systèmes qui suivent le contenu que les élèves consultent sur leur ordinateur portable dans le but de détecter s’ils sont à risque de s’automutiler.

La classe suit déjà la fréquence à laquelle les élèves lèvent la main pendant une session et offre une fonction de « vue de surveillant » qui permet aux enseignants de surveiller ce que les élèves regardent sur leur ordinateur si les étudiants acceptent de partager leur écran de bureau avec les instructeurs.

« Je pense que nous devons être très sensibles aux droits personnels des gens et ne pas être trop intrusifs avec ces systèmes », a déclaré Chasen.

Les caméras comme enjeu de justice sociale

Alors que la classe virtuelle est devenue la norme au cours des deux dernières années, un débat a émergé parmi les éducateurs sur la question de savoir s’il fallait ou non exiger que les élèves allument leurs caméras pendant les cours. Aujourd’hui, dans le programme d’anglais de Dancey, les caméras sont facultatives, en partie parce que dans des environnements virtuels, les étudiants peuvent communiquer avec les instructeurs via leurs microphones ou via le chat.

Mais pour capturer les expressions faciales des étudiants, la technologie d’Intel aurait besoin de ces caméras allumées.

« Le truc à propos de l’allumage des caméras, c’est devenu presque comme une question de justice sociale », a déclaré Dancey. Non seulement certains étudiants s’inquiètent du fait que d’autres voient où et comment ils vivent, mais l’activation des caméras draine l’énergie, ce qui peut être un problème pour les étudiants utilisant un point d’accès mobile pour se connecter en classe, a-t-elle déclaré.

« C’est une sorte d’invasion de la vie privée, et il y a des problèmes d’accessibilité, car avoir votre caméra allumée consomme énormément de bande passante. Cela pourrait littéralement leur coûter de l’argent pour le faire », a déclaré Dancey.

Nous ne voulons pas que cette technologie soit un système de surveillance.

« Les étudiants ne devraient pas avoir à contrôler leur apparence en classe », a déclaré Nandita Sampath, analyste des politiques chez Consumer Reports et axée sur les biais algorithmiques et les problèmes de responsabilité, qui a déclaré qu’elle se demandait si les étudiants auraient la possibilité de contester des résultats inexacts si le système d’Intel entraînait des conséquences négatives. « Quels états cognitifs et émotionnels ces entreprises prétendent-elles être capables d’évaluer ou de prédire, et quelle est la responsabilité? », a-t-elle déclaré.

Aslan a déclaré que l’objectif de la technologie d’Intel n’est pas de surveiller ou de pénaliser les étudiants, mais plutôt d’encadrer les enseignants et de fournir des informations supplémentaires afin qu’ils puissent mieux comprendre quand les étudiants ont besoin d’aide. « Nous n’avons pas lancé cette technologie en tant que système de surveillance. En fait, nous ne voulons pas que cette technologie soit un système de surveillance », a déclaré Aslan.

Sampath a déclaré que la technologie d’Intel pourrait être utilisée pour juger ou pénaliser les étudiants, même si ce n’est pas l’intention. « Peut-être qu’ils n’ont peut-être pas l’intention que ce soit le décideur ultime, mais cela ne signifie pas que l’enseignant ou l’administrateur ne peut pas l’utiliser de cette façon », a-t-elle déclaré.

Dancey a déclaré que les enseignants s’inquiètent également de l’utilisation de la surveillance contre eux. « Souvent, la surveillance est utilisée contre les instructeurs de manière vraiment injuste », a-t-elle déclaré. « Je ne pense pas qu’il serait paranoïaque de dire, surtout si cela va mesurer « l’engagement des étudiants » – MT, entre guillemets – que si je vais chercher une promotion ou une titularisation, est-ce que cela va faire partie de mon évaluation? Pouvaient-ils dire : « Untel avait un faible quotient de compréhension ? »

Lorsqu’Intel a testé le système dans une salle de classe physique, certains enseignants qui ont participé à l’étude ont suggéré qu’il fournissait des informations utiles. « J’ai pu voir comment j’ai pu saisir certains défis émotionnels des élèves que je n’aurais pas pu anticiper. [before]», a déclaré un enseignant, selon un document fourni par Intel.

Mais alors que certains enseignants ont peut-être trouvé cela utile, Dancey a déclaré qu’elle ne voudrait pas utiliser le système Intel. « Je pense que la plupart des enseignants, en particulier au niveau universitaire, trouveraient cette technologie moralement répréhensible, comme le Panopticon. Franchement, si mon institution me l’offrait, je le rejetterais, et si nous devions l’utiliser, je réfléchirais à deux fois avant de continuer à travailler ici », a-t-elle déclaré.

Préparation des données d’IA par des psychologues

À ce stade précoce, Intel vise à trouver les meilleurs moyens de mettre en œuvre la technologie afin qu’elle soit la plus utile pour les enseignants, a déclaré Aslan: « Comment pouvons-nous le faire de manière à ce qu’il soit aligné sur ce que l’enseignant fait au quotidien? »

Je pense que la plupart des enseignants, en particulier au niveau universitaire, trouveraient cette technologie moralement répréhensible.

Intel a développé son système d’analyse d’apprentissage adaptatif en incorporant les données recueillies auprès des étudiants lors de sessions en classe réelles à l’aide d’ordinateurs portables équipés de caméras 3D. Pour étiqueter le groEt les données de vérité utilisées pour former ses modèles algorithmiques, les chercheurs ont embauché des psychologues qui ont visionné des vidéos des étudiants et catégorisé les émotions qu’ils ont détectées dans leurs expressions.

« Nous ne voulons pas partir d’hypothèses. C’est pourquoi nous avons embauché des experts en la matière pour étiqueter les données », a déclaré Nese Alyuz Civitci, chercheur en apprentissage automatique chez Intel. Les chercheurs n’ont utilisé des données que lorsqu’au moins deux des trois étiqueteurs se sont mis d’accord sur la façon dont les expressions d’un élève devraient être catégorisées.

« C’était vraiment intéressant de voir ces émotions – les états sont vraiment subtils, ce sont de minuscules différences », a déclaré Civitci. « C’était vraiment difficile pour moi d’identifier ces différences. »

Plutôt que d’évaluer les modèles d’IA d’Intel pour savoir s’ils reflétaient avec précision les émotions réelles des étudiants, les chercheurs « l’ont positionné comme la façon dont un enseignant peut faire confiance aux modèles », a déclaré Aslan.

« Je ne pense pas que ce soit la technologie qui ait encore atteint sa maturité », a déclaré Chasen à propos du système d’Intel. « Nous devons voir si les résultats sont pertinents pour la performance des étudiants et voir si nous ne pouvons pas en tirer des données utiles pour les instructeurs. C’est ce que nous testons pour le découvrir. »

En fin de compte, il a déclaré que le système Intel fournira une donnée que Classroom Technologies et ses clients combineront avec d’autres signaux pour former une évaluation holistique des étudiants.

« Il n’y a jamais une seule donnée », a-t-il déclaré. Il a également suggéré que les informations révélées par la technologie Intel ne devraient pas être utilisées seules sans contexte pour juger de la performance d’un élève, par exemple, « si l’IA dit qu’ils ne font pas attention et qu’ils ont tous des As directs ».

Rate this post
Publicité
Article précédentComment utiliser l’application Calendrier sur un PC Windows 11
Article suivantBitcoin (BTC) retombe en dessous de 40 000 $ pour clôturer la troisième semaine baissière successive
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici