Le nouveau jouet le plus en vogue du monde de la technologie pourrait se retrouver dans l’eau chaude légale alors que la tendance de l’IA à inventer des articles de presse et des événements se heurte aux lois sur la diffamation. Un modèle d’IA comme ChatGPT peut-il même commettre une diffamation ? Comme tant de choses autour de la technologie, elle est inconnue et sans précédent – mais les défis juridiques à venir pourraient changer cela.

La diffamation est définie au sens large comme la publication ou la tenue de déclarations préjudiciables et fausses à propos de quelqu’un. Il s’agit d’un territoire juridique complexe et nuancé qui diffère également considérablement d’une juridiction à l’autre : une affaire de diffamation aux États-Unis est très différente d’une affaire au Royaume-Uni ou en Australie – le lieu du drame d’aujourd’hui.

L’IA générative a déjà soulevé de nombreuses questions juridiques sans réponse, par exemple si son utilisation de matériel protégé par le droit d’auteur équivaut à un usage loyal ou à une violation. Mais il y a encore un an, ni les images ni les modèles d’IA générant du texte n’étaient assez bons pour produire quelque chose que vous confondriez avec la réalité, donc les questions de fausses représentations étaient purement académiques.

Pas tellement maintenant : Le grand modèle de langage derrière ChatGPT et Bing Chat est un artiste de conneries opérant à une échelle énorme, et son intégration avec des produits grand public comme les moteurs de recherche (et de plus en plus à peu près tout le reste) élève sans doute le système de l’expérience glitchy à la masse plate-forme éditoriale.

Alors que se passe-t-il lorsque l’outil/la plateforme écrit qu’un fonctionnaire a été inculpé dans une affaire de malversation, ou qu’un professeur d’université a été accusé de harcèlement sexuel ?

Publicité

Il y a un an, en l’absence d’intégrations générales et d’un langage plutôt peu convaincant, peu de gens diraient que de telles fausses déclarations pouvaient être prises au sérieux. Mais aujourd’hui, ces modèles répondent aux questions avec confiance et conviction sur des plateformes de consommation largement accessibles, même lorsque ces réponses sont hallucinées ou faussement attribuées à des articles inexistants. Ils attribuent de fausses déclarations à de vrais articles, ou de vraies déclarations à des articles inventés, ou inventent tout.

En raison de la nature du fonctionnement de ces modèles, ils ne savent pas ou ne se soucient pas de savoir si quelque chose est vrai, seulement que cela semble vrai. C’est un problème lorsque vous l’utilisez pour faire vos devoirs, bien sûr, mais lorsqu’il vous accuse d’un crime que vous n’avez pas commis, cela peut très bien être à ce stade de la diffamation.

C’est l’affirmation faite par Brian Hood, maire de Hepburn Shire en Australie, lorsqu’il a été informé que ChatGPT l’avait désigné comme ayant été condamné dans un scandale de corruption il y a 20 ans. Le scandale était réel – et Hood était impliqué. Mais c’est lui qui est allé voir les autorités à ce sujet et n’a jamais été accusé d’un crime, comme Reuters rapporte que ses avocats ont déclaré.

Maintenant, il est clair que cette déclaration est fausse et porte incontestablement atteinte à la réputation de Hood. Mais qui a fait la déclaration ? Est-ce OpenAI qui a développé le logiciel ? Est-ce Microsoft qui l’a licencié et déployé sous Bing ? Est-ce le logiciel lui-même, agissant comme un système automatisé ? Si oui, qui est responsable d’avoir invité ce système à créer la déclaration ? Faire une telle déclaration dans un tel cadre revient-il à la « publier », ou s’agit-il plutôt d’une conversation entre deux personnes ? Dans ce cas, serait-ce de la diffamation ? OpenAI ou ChatGPT « savaient-ils » que ces informations étaient fausses, et comment définissons-nous la négligence dans un tel cas ? Un modèle d’IA peut-il manifester de la malveillance ? Cela dépend-il de la loi, du cas, du juge ?

Ce sont toutes des questions ouvertes car la technologie qu’elles concernent n’existait pas il y a un an, encore moins lorsque les lois et les précédents définissant légalement la diffamation ont été établis. Bien qu’il puisse sembler idiot à un certain niveau de poursuivre un chatbot pour avoir dit quelque chose de faux, les chatbots ne sont plus ce qu’ils étaient autrefois. Avec certaines des plus grandes entreprises du monde qui les proposent comme la prochaine génération de recherche d’informations, remplaçant les moteurs de recherche, ce ne sont plus des jouets mais des outils utilisés régulièrement par des millions de personnes.

Hood a envoyé une lettre à OpenAI lui demandant de faire quelque chose à ce sujet – ce qu’il peut faire n’est pas vraiment clair, ni s’il y est obligé, ou quoi que ce soit d’autre, par la loi australienne ou américaine. Mais dans une autre affaire récente, un professeur de droit s’est retrouvé accusé de harcèlement sexuel par un chatbot citant un article fictif du Washington Post. Et il est probable que de telles déclarations fausses et potentiellement préjudiciables soient plus courantes que nous ne le pensons – elles commencent tout juste à devenir sérieuses et suffisantes pour justifier un signalement aux personnes impliquées.

Ce n’est que le tout début de ce drame juridique, et même les avocats et les experts en IA n’ont aucune idée de comment cela va se dérouler. Mais si des entreprises comme OpenAI et Microsoft (sans parler de toutes les autres grandes entreprises technologiques et de quelques centaines de startups) s’attendent à ce que leurs systèmes soient pris au sérieux en tant que sources d’informations, elles ne peuvent éviter les conséquences de ces affirmations. Ils peuvent suggérer des recettes et planifier des voyages comme points de départ, mais les gens comprennent que les entreprises disent que ces plateformes sont une source de vérité.

Ces déclarations troublantes vont-elles se transformer en véritables procès ? Ces poursuites seront-elles résolues avant que l’industrie ne change à nouveau ? Et tout cela sera-t-il évoqué par la législation dans les juridictions où les affaires sont poursuivies ? Ce sont sur le point d’être quelques mois intéressants (ou plus probablement des années) alors que des experts techniques et juridiques tentent de s’attaquer à la cible la plus rapide de l’industrie.

4.6/5 - (9 votes)
Publicité
Article précédentL’heure de sortie du film (par fuseau horaire)
Article suivantLe Galaxy Z Flip 5 de Samsung aura un grand écran de couverture 720p de 3,4 pouces, selon des allégations de fuite
Berthe Lefurgey
Berthe Lefurgey est une journaliste chevronnée, passionnée par la technologie et l'innovation, qui fait actuellement ses armes en tant que rédactrice de premier plan pour TechTribune France. Avec une carrière de plus de dix ans dans le monde du journalisme technologique, Berthe s'est imposée comme une voix de confiance dans l'industrie. Pour en savoir plus sur elle, cliquez ici. Pour la contacter cliquez ici

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici