La Chine a développé une intelligence artificielle capable d’identifier les crimes et de porter plainte contre les criminels avec une précision de plus de 97 %.
L’IA a été développée et testée par le Parquet populaire de Shanghai Pudong et a été formée pour identifier les huit crimes les plus courants de Shanghai.
Il a été développé par une équipe dirigée par le professeur Shi Yong, directeur du laboratoire de Big Data et de gestion des connaissances de l’Académie chinoise des sciences.
Tel que rapporté par le Poste du matin du sud de la Chine, l’IA ne peut pas « participer au processus décisionnel consistant à déposer des accusations et à proposer des peines », mais est déjà utilisée pour aider à évaluer les preuves et à déterminer si les criminels sont dangereux pour le public.
Il dépose des accusations en utilisant une description d’une affaire criminelle présumée et les chercheurs pensent qu’il peut «remplacer les prosecteurs dans le processus décisionnel dans une certaine mesure».
L’outil a été construit à l’aide d’une IA existante appelée System 206 et, sans pouvoir identifier et supprimer les informations non pertinentes dans une affaire, ni traiter le langage humain, il ne sera pas en mesure de prendre des décisions de condamnation ou de porter des accusations sans intervention humaine.
Mais, il peut identifier et accuser des criminels de fraude par carte de crédit, de jeu, de conduite imprudente, d’agression internationale, de vol, de fraude, d’entrave à un agent et, plus inquiétant encore, de dissidence politique.
Le système 206 est utilisé dans le traitement des dossiers depuis 2016, mais il n’a pas été conçu pour faire partie du processus décisionnel.
Les apprentissages appliqués à la nouvelle IA incluent la possibilité de trier les données et de déterminer quels points de données sont pertinents pour un cas, ce qui lui permet de prendre des décisions là où le système 206 ne le pouvait pas.
S’adressant au Post, un procureur anonyme a déclaré que la préoccupation était que, même si la précision de 97% est élevée, il y a toujours un changement d’erreurs.
« Qui prendra la responsabilité quand cela arrivera ? Le procureur, la machine ou le concepteur de l’algorithme ? » demanda l’avocat.
Les développeurs ont déclaré que l’IA serait utilisée pour réduire la charge de travail des procureurs, mais qu’elle n’a pas encore été largement déployée.
Il peut être utilisé sur un ordinateur de bureau et utilise des milliards de points de données stockés sur le système dans son analyse.
Il a été développé en utilisant des milliers de cas juridiques du monde entier.
Le procureur qui a parlé au Post a déclaré que la préoccupation était d’essayer de remplacer la prise de décision humaine par une machine.
« L’IA peut aider à détecter une erreur, mais elle ne peut pas remplacer les humains dans la prise de décision », ont-ils déclaré.
La Malaisie est déjà utiliser l’IA dans la détermination de la peine, mais les critiques ont souligné que l’IA n’est aussi puissante que les données qu’elle est alimentée et qu’elle est capable de développer des biais, ce qui pourrait être particulièrement dangereux en usage légal.
Il a déjà été prouvé qu’un logiciel d’évaluation des risques d’IA utilisé dans le Wisconsin avait développé un biais contre les délinquants en fonction de leur race.
Pour l’instant, il n’y a pas de calendrier pour le déploiement ultérieur de l’IA ni de plans clairs pour une formation supplémentaire au-delà de ses huit capacités de crime actuelles.
.