Le nouveau jouet le plus en vogue du monde de la technologie pourrait se retrouver dans une situation délicate sur le plan juridique, alors que la tendance de l'IA à inventer des articles et des événements d'actualité se heurte aux lois sur la diffamation. Un modèle d’IA comme ChatGPT peut-il même commettre une diffamation ? Comme tant de choses autour de la technologie, c'est inconnu et sans précédent – ​​mais les défis juridiques à venir pourraient changer cela.

La diffamation est définie au sens large comme la publication ou le fait de prononcer des déclarations préjudiciables et fausses à l'égard de quelqu'un. Il s'agit d'un territoire juridique complexe et nuancé qui diffère également considérablement selon les juridictions : une affaire de diffamation aux États-Unis est très différente de celle du Royaume-Uni ou de l'Australie, où se déroulent les drames d'aujourd'hui.

L’IA générative a déjà soulevé de nombreuses questions juridiques sans réponse, par exemple sur la question de savoir si l’utilisation de matériel protégé par le droit d’auteur constitue une utilisation équitable ou une contrefaçon. Mais il y a encore un an, ni les modèles d’IA générant des images ni ceux des textes n’étaient suffisamment performants pour produire quelque chose que l’on confondrait avec la réalité, de sorte que les questions de fausses représentations étaient purement académiques.

Pas tellement maintenant : le grand modèle linguistique derrière ChatGPT et Bing Chat est un artiste de conneries opérant à une échelle énorme, et son intégration avec des produits grand public comme les moteurs de recherche (et de plus en plus à peu près tout le reste) élève sans doute le système du stade d'expérience problématique à celui de masse. plateforme de publication.

Alors, que se passe-t-il lorsque l'outil/la plateforme écrit qu'un fonctionnaire du gouvernement a été inculpé dans une affaire de malversation, ou qu'un professeur d'université a été accusé de harcèlement sexuel ?

Publicité

Il y a un an, en l’absence d’intégrations à grande échelle et d’un langage plutôt peu convaincant, rares étaient ceux qui diraient que de telles fausses déclarations pouvaient être prises au sérieux. Mais aujourd’hui, ces modèles répondent aux questions avec assurance et conviction sur des plateformes grand public largement accessibles, même lorsque ces réponses sont hallucinées ou faussement attribuées à des articles inexistants. Ils attribuent les fausses déclarations à des articles réels, ou les vraies déclarations à des articles inventés, ou encore inventent tout cela.

En raison de la nature du fonctionnement de ces modèles, ils ne savent pas si quelque chose est vrai ou ne se soucient pas de savoir si cela semble vrai. C'est un problème lorsque vous l'utilisez pour faire vos devoirs, bien sûr, mais lorsqu'il vous accuse d'un crime que vous n'avez pas commis, cela pourrait bien être de la diffamation à ce stade.

C'est l'affirmation de Brian Hood, maire de Hepburn Shire en Australie, lorsqu'il a été informé que ChatGPT l'avait désigné comme ayant été reconnu coupable dans un scandale de corruption survenu il y a 20 ans. Le scandale était réel – et Hood était impliqué. Mais c'est lui qui s'en est adressé aux autorités et n'a jamais été accusé d'un crime, comme le rapportent Reuters ses avocats.

Or, il est clair que cette affirmation est fausse et incontestablement préjudiciable à la réputation de Hood. Mais qui a fait cette déclaration ? Est-ce OpenAI, qui a développé le logiciel ? Est-ce Microsoft qui l'a licencié et l'a déployé sous Bing ? Est-ce le logiciel lui-même, agissant comme un système automatisé ? Si tel est le cas, qui est responsable d’avoir incité ce système à créer la déclaration ? Faire une telle déclaration dans un tel cadre constitue-t-il une « publication » ou s’agit-il plutôt d’une conversation entre deux personnes ? Dans ce cas, cela équivaudrait-il à de la calomnie ? OpenAI ou ChatGPT « savaient-ils » que cette information était fausse, et comment définit-on la négligence dans un tel cas ? Un modèle d’IA peut-il faire preuve de malveillance ? Est-ce que cela dépend de la loi, du dossier, du juge ?

Ce sont toutes des questions ouvertes car la technologie qu'elles concernent n'existait pas il y a un an, encore moins lorsque les lois et les précédents définissant légalement la diffamation ont été établis. Même s’il peut sembler idiot, à un certain niveau, de poursuivre un chatbot pour avoir dit quelque chose de faux, les chatbots ne sont plus ce qu’ils étaient autrefois. Alors que certaines des plus grandes entreprises du monde les proposent comme la prochaine génération de recherche d'informations, remplaçant les moteurs de recherche, ce ne sont plus des jouets mais des outils utilisés régulièrement par des millions de personnes.

Hood a envoyé une lettre à OpenAI lui demandant de faire quelque chose à ce sujet – on ne sait pas vraiment ce qu'il peut faire, ni s'il y est obligé, ou quoi que ce soit d'autre, par la loi australienne ou américaine. Mais dans une autre affaire récente, un professeur de droit s'est retrouvé accusé de harcèlement sexuel par un chatbot citant un article fictif du Washington Post. Et il est probable que de telles déclarations fausses et potentiellement préjudiciables soient plus courantes que nous le pensons : elles deviennent tout juste sérieuses et suffisamment graves pour justifier d’être signalées aux personnes impliquées.

Ce n’est que le tout début de ce drame juridique, et même les avocats et les experts en IA n’ont aucune idée de la manière dont cela va se dérouler. Mais si des entreprises comme OpenAI et Microsoft (sans parler de toutes les autres grandes entreprises technologiques et de quelques centaines de startups) s’attendent à ce que leurs systèmes soient pris au sérieux en tant que sources d’informations, elles ne peuvent éviter les conséquences de ces affirmations. Ils peuvent suggérer des recettes et planifier des voyages comme points de départ, mais les gens comprennent que les entreprises disent que ces plateformes sont une source de vérité.

Ces déclarations troublantes se transformeront-elles en véritables procès ? Ces procès seront-ils résolus avant que l’industrie ne change à nouveau ? Et tout cela sera-t-il abordé par la législation des juridictions où les affaires sont poursuivies ? Les mois (ou plus probablement les années) s'annoncent intéressants alors que les experts en technologie et en droit tentent de s'attaquer à la cible qui évolue le plus rapidement dans l'industrie.

4.2/5 - (9 votes)
Publicité
Article précédentFortnite Wrapped 2023 : Fortnite.gg/y23 expliqué
Article suivantConceptions uniques de bases d'îles Minecraft pour inspirer votre prochain projet

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici