Des milliards de dollars inondent l’IA. Pourtant, les modèles d’IA sont déjà affectés par des préjugés, comme en témoigne la discrimination hypothécaire envers les futurs propriétaires noirs.

Il est raisonnable de se demander quel rôle l’éthique joue dans la construction de cette technologie et, peut-être plus important encore, où les investisseurs s’intègrent-ils alors qu’ils se précipitent pour la financer.

Un fondateur a récemment déclaré à fr.techtribune.net+ qu’il est difficile de penser à l’éthique lorsque l’innovation est si rapide : les gens construisent des systèmes, puis les cassent, puis les modifient. Il incombe donc aux investisseurs de s’assurer que ces nouvelles technologies sont construites par des fondateurs dans un souci d’éthique.

Pour voir si cela se produit, fr.techtribune.net + s’est entretenu avec quatre investisseurs actifs dans l’espace sur leur façon de penser l’éthique dans l’IA et comment les fondateurs peuvent être encouragés à réfléchir davantage aux préjugés et à faire ce qu’il faut.


Nous élargissons notre objectif et recherchons davantage d’investisseurs pour participer aux sondages fr.techtribune.net, où nous interrogeons les meilleurs professionnels sur les défis de leur secteur.

Publicité

Si vous êtes un investisseur et souhaitez participer à de futurs sondages, remplissez ce formulaire.


Certains investisseurs ont déclaré qu’ils s’attaquaient à ce problème en faisant preuve de diligence raisonnable sur l’éthique d’un fondateur pour aider à déterminer s’il continuerait à prendre des décisions que l’entreprise peut soutenir.

« L’empathie du fondateur est un énorme drapeau vert pour nous », a déclaré Alexis Alston, directeur de Lightship Capital. « Ces personnes comprennent que si nous recherchons les rendements du marché, nous recherchons également que nos investissements n’aient pas d’impact négatif sur le monde. »

D’autres investisseurs pensent que poser des questions difficiles peut aider à séparer le bon grain de l’ivraie. « Toute technologie entraîne des conséquences imprévues, qu’il s’agisse de biais, d’une agence humaine réduite, d’atteintes à la vie privée ou autre chose », a déclaré Deep Nishar, directeur général de General Catalyst. « Notre processus d’investissement s’articule autour de l’identification de ces conséquences imprévues, de leur discussion avec les équipes fondatrices et de l’évaluation de la mise en place ou de la mise en place de mesures de protection pour les atténuer. »

Les politiques gouvernementales visent également l’IA : l’UE a adopté lois sur l’apprentissage automatiqueet les États-Unis ont introduit plans pour un groupe de travail sur l’IA pour commencer à examiner les risques associés à l’IA. C’est en plus de la Charte des droits de l’IA introduite l’année dernière. Avec de nombreuses grandes sociétés de capital-risque qui injectent de l’argent dans Efforts d’IA en Chineil est important de se demander comment l’éthique mondiale au sein de l’IA peut également être appliquée au-delà des frontières.

Poursuivez votre lecture pour découvrir comment les investisseurs abordent la diligence raisonnable, les drapeaux verts qu’ils recherchent et leurs attentes en matière de réglementation en matière d’IA.

Nous avons parlé avec :


Alexis Alston, directeur, Lightship Capital

Lorsque vous investissez dans une entreprise d’IA, quel degré de diligence raisonnable faites-vous sur la façon dont son modèle d’IA prétend ou gère les biais ?

Pour nous, il est important de comprendre exactement quelles données le modèle prend, d’où viennent les données et comment ils les nettoient. Nous faisons pas mal de diligence technique avec notre médecin généraliste axé sur l’IA pour nous assurer que nos modèles peuvent être formés pour atténuer ou éliminer les biais.

Nous nous souvenons tous de ne pas pouvoir ouvrir automatiquement les robinets pour nous laver les mains les plus sombres, et des moments où la recherche d’images google associait « accidentellement » la peau noire aux primates. Je ferai tout ce qui est en mon pouvoir pour que nous ne nous retrouvions pas avec des modèles comme celui-là dans notre portefeuille.

Comment l’adoption par les États-Unis de lois sur l’apprentissage automatique similaires à celles de l’UE affecterait-elle le rythme d’innovation que le pays envisage dans ce secteur ?

Compte tenu du manque de connaissances techniques et de sophistication de notre gouvernement, j’ai très peu confiance en la capacité des États-Unis à adopter une législation concrète et précise sur l’apprentissage automatique. Nous avons une si longue queue lorsqu’il s’agit d’une législation opportune et pour que des experts techniques fassent partie de groupes de travail pour informer nos législateurs.

En fait, je ne vois pas de législation apporter de changements majeurs dans le rythme du développement du BC, étant donné la façon dont nos lois sont généralement structurées. À l’instar de la course vers le bas pour une législation sur les drogues de synthèse aux États-Unis il y a dix ans, la législation n’a jamais pu suivre le rythme.

4.8/5 - (16 votes)
Publicité
Article précédentMatt Berry s’apprête à rejoindre Jason Momoa dans le casting du film Minecraft
Article suivantLa fonction « Aidez-moi à organiser » alimentée par l’IA commence à être déployée dans Google Sheets
Berthe Lefurgey
Berthe Lefurgey est une journaliste chevronnée, passionnée par la technologie et l'innovation, qui fait actuellement ses armes en tant que rédactrice de premier plan pour TechTribune France. Avec une carrière de plus de dix ans dans le monde du journalisme technologique, Berthe s'est imposée comme une voix de confiance dans l'industrie. Pour en savoir plus sur elle, cliquez ici. Pour la contacter cliquez ici

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici