- Publicité -


BRIAN KENNY: Les révolutions ont souvent des origines modestes, un petit groupe avec de grandes idées qui se rassemblent pour planter des graines de perturbation. C’était donc à l’époque des chiens de l’été 1956, lorsque 10 universitaires se sont réunis sur le campus du Dartmouth College pour discuter de la façon de faire en sorte que les machines utilisent le langage et forment des abstractions et des concepts pour résoudre les types de problèmes maintenant réservés aux humains. La conférence a conduit à la fondation d’un nouveau domaine d’étude, l’intelligence artificielle. Dans six décennies, nous sommes au milieu d’une révolution de l’IA qui est déjà en train de changer radicalement des secteurs entiers comme les soins de santé, les transports, l’éducation, la banque et la vente au détail. Mais l’IA n’est pas sans critiques. Elon Musk a dit : « Avec l’intelligence artificielle, nous invoquons le démon. » Alors que Stephen Hawking croyait que le développement de l’intelligence artificielle complète pourrait signifier la fin de la race humaine. Alors, à qui incombe le travail de s’assurer qu’une telle vision ne se réalise jamais? Aujourd’hui sur Appel à froid, nous avons invité la professeure Tsedal Neeley à discuter de son cas intitulé « Timnit Gebru: Silenced No More on AI Bias and The Harms of Large Language Models ». Je suis votre hôte, Brian Kenny, et vous écoutez Appel à froid sur le réseau HBR Presents. Le travail de Tsedal Neeley se concentre sur la façon dont les dirigeants peuvent faire évoluer leurs organisations en développant et en mettant en œuvre des stratégies mondiales et numériques. Elle est également co-auteure du livre, L’état d’esprit numérique : ce qu’il faut vraiment pour prospérer à l’ère des données, des algorithmes et de l’IA. Merci de vous joindre à moi aujourd’hui, Tsedal.

TSEDAL NEELEY : Je suis tellement heureux d’être de retour.

BRIAN KENNY : C’est génial de vous avoir à nouveau. Nous vous avons eu dans l’émission, je pense deux ou trois fois à ce stade. Donc, vous devez faire quelque chose de bien si vous revenez sans cesse.

- Publicité -

TSEDAL NEELEY : J’attends toujours l’occasion de revenir. Et ce cas dont nous allons discuter est l’un de mes préférés cette année.

BRIAN KENNY : Oui. Donc, vous n’en avez pas encore discuté avec la classe, n’est-ce pas ?

TSEDAL NEELEY : Non, je ne l’ai pas fait.

BRIAN KENNY: D’accord, eh bien, ce sera bien parce que nous allons poser des questions qui, selon nous, pourraient faire surface dans la salle de classe. Mais je veux aussi emmener nos auditeurs entre les lignes de l’affaire et mieux comprendre pourquoi vous l’avez écrit en premier lieu, et comment cela correspond au type de recherche que vous aimez faire. Et en particulier les idées de votre nouveau livre. Alors, creusons. Pouvez-vous nous préparer le terrain ? Quel est le cas central de la question? Et quand vous en discuterez en classe, quel sera votre appel à froid ?

TSEDAL NEELEY : Donc, le cas central dans l’histoire de Timnit Gebru est qu’ici vous avez un expert en IA, un informaticien, qui examine les méfaits et les risques qui viennent de l’intelligence artificielle. Et elle travaille chez Google en ce moment, et a soulevé quelques préoccupations à l’entreprise au sujet de leurs grands modèles de langage. L’entreprise n’a pas aimé. Et, en fin de compte, elle prétend avoir été licenciée. Google affirme qu’elle a démissionné. Mais l’essentiel est qu’ils se sont séparés. L’appel à froid pour cette affaire est, cette situation était-elle condamnée dès le départ? Pouvez-vous avoir une éthique de l’IA, un expert en biais d’IA, évaluant la technologie à l’intérieur d’une entreprise? Ou avez-vous besoin d’un étranger pour vous assurer que les préjugés ne sont pas intégrés dans votre système et vos mécanismes de formation?

BRIAN KENNY : Oui, et cela soulève des problèmes. Nous avons beaucoup entendu parler de Google. Je pense que Google est l’une de ces entreprises que tout le monde sait ce que c’est, mais c’est une organisation tellement géante que vous n’êtes pas nécessairement au courant de tout ce qu’ils font. Donc, pour moi, cela a apporté une toute autre dimension de ce que fait Google. Et nous avons également entendu parler de questions culturelles chez Google. Donc, je pense que cette affaire fait remonter une partie de cela à la surface aussi. Donc, beaucoup de choses intéressantes qui en découlent. Comment avez-vous entendu parler de cette histoire et qu’est-ce qui vous a décidé à écrire un cas à ce sujet ?

TSEDAL NEELEY : Donc, je connais Timnit Gebru depuis qu’elle était étudiante de premier cycle à l’Université de Stanford. Je l’ai donc rencontrée quand elle était en première année et j’étais étudiante en première année de doctorat. Et vous saviez que cette femme allait être spéciale. Et, à cette époque, il n’était pas clair qu’elle serait l’une des voix pionnières en matière de visualisation dans l’IA et, en fin de compte, d’éthique et de préjugés de l’IA. Elle a pris d’assaut le monde de la technologie. En 2018, en collaboration avec Joy Buolamwini, Timnit a analysé les logiciels de reconnaissance faciale fabriqués par trois entreprises. L’un d’eux où elle travaillait, à l’époque. Et leur travail est devenu une étude historique. Il s’appelait « Gender Shades ». Et cela a montré que plus le teint de peau que les gens avaient était foncé, plus il était peu probable que les visages serait reconnu avec précision par l’IA. Et ils ont été les premiers à mettre cela au premier plan et à montrer à quel point il y a tant d’inexactitudes qui nuisent finalement aux populations de couleur grâce aux systèmes d’IA qui étaient en jeu. Timnit est l’une de ces personnes qui voit les choses clairement. Tout le monde parle d’IA aujourd’hui, d’éthique de l’IA et de biais de l’IA. Elle y pensait il y a plus de dix ans.

BRIAN KENNY : Donc, le titre de l’affaire fait référence à de grands modèles linguistiques. Et je pense qu’il serait utile que les gens comprennent ce que cela signifie dans le contexte de l’IA avant d’aller plus loin dans les détails de l’affaire.

TSEDAL NEELEY: Les grands modèles de langage aujourd’hui, beaucoup pourraient le reconnaître comme un terme, mais beaucoup entendront parler de grands modèles de langage parce que c’est le type d’IA. Et en 2018, Google a dévoilé son grand modèle de langage nommé BERT. Et ce que fait BERT, c’est qu’il prend des données. Je veux dire, quand je dis données, nous parlons de millions, de milliards, d’un demi-billion de mots. Et ces modèles, finalement, sont utilisés pour faire des prédictions et contribuent au travail des probabilités de Google. Et donc ces grands modèles de langage, ils prennent du texte, n’importe quoi, des mots, et finalement ils deviennent intelligents grâce à la formation. Et sont utilisés pour se concentrer, pour personnaliser, pour personnaliser et cetera. Et donc, le problème avec ces grands modèles de langage qui inquiétait beaucoup Timnit est que plus les modèles sont grands, moins ceux qui utilisent ces modèles sont capables d’identifier les biais qui peuvent y être intégrés, et impossibles de les assainir. Ainsi, avec les co-auteurs, elle essayait de ralentir la production de ces grands modèles de langage afin de dire: « Attendez une minute, avons-nous besoin qu’ils soient aussi grands? Et si oui, comment pouvons-nous nous assurer qu’il n’y a pas de préjudices qui se perpétuent à travers ces modèles ? »

BRIAN KENNY : Oui. De quel genre de préjudice parlez-vous? Comme quelles seraient certaines des façons dont cela se manifesterait?

TSEDAL NEELEY : L’une des façons dont cela se manifesterait est que les préjugés sont reproduits, dupliqués et mis à l’échelle de façon exponentielle lorsqu’il s’agit de communautés qui font l’objet d’une surveillance, lorsqu’il s’agit de personnes noires et brunes, lorsqu’il s’agit de réfugiés. Ainsi, ces modèles ne sont pas capables d’extraire les biais sur lesquels ils sont construits parce que, par définition, les humains sont biaisés. Et le texte que les humains vont générer et produire aura des biais en eux. Ainsi, des gens comme Timnit disent que ces grands modèles linguistiques peuvent nuire aux personnes qui ne sont pas impliquées dans leur conception, qui sont impuissantes parce que des préjugés y seront intégrés. Alors, ralentissons, comprenons-les.

BRIAN KENNY : Donc, si vous avez un groupe homogène qui conçoit en quelque sorte le modèle et qui alimente l’information dans le modèle, tous les biais qui accompagnent ce groupe seront là parce qu’il n’y a pas eu d’apport de groupes sous-représentés. Est-ce que c’est…?

TSEDAL NEELEY : C’est exactement ça. Et la chose à propos de l’IA, l’IA évolue de manière exponentielle. Et donc, c’est exactement ce qui les inquiétait.

BRIAN KENNY : Alors, parlons un peu du parcours de Timnit. C’est une personne de la région, elle a grandi non loin de la Harvard Business School, n’est-ce pas ?

TSEDAL NEELEY : Elle est allée au lycée à Somerville, dans le Massachusetts. Mais elle a atterri là-bas parce qu’elle est le produit de l’Afrique de l’Est. Elle est née en Éthiopie, à Addis-Abeba. Sa famille est originaire d’Éthiopie et d’Érythrée. Et il y a eu un différend frontalier dans les années 90 entre l’Érythrée et l’Éthiopie, ce qui l’a rendue vulnérable, elle et sa famille, à la conscription pour combattre dans la guerre. Et, pour l’éviter, sa famille est partie. Et quand je dis sa famille, c’est sa mère et ses deux sœurs. Et elle a ses sœurs en Irlande. Sa mère a fini par atterrir dans le Massachusetts. Mais Timnit vient d’une famille très axée sur la technologie. Sa mère est économiste. Mais son père est ingénieur électricien, docteur. Les deux sœurs sont ingénieures électriciennes. Et elle dit qu’elle a grandi en aimant les mathématiques, les sciences et la physique. Et jamais imaginé une vie qui n’impliquerait pas la technologie et l’ingénierie. C’était donc un endroit naturel pour elle d’atterrir en tant que personne douée en mathématiques et en sciences.

BRIAN KENNY: Comment s’est-elle impliquée à l’époque, en tant qu’éthicienne de l’IA? À quoi ressemble exactement cette description de poste, si vous êtes un éthicien de l’IA?

TSEDAL NEELEY: bC’est intéressant parce qu’elle se qualifierait de chercheuse en IA. Et dans le cadre de son rôle de chercheur en IA, une composante consiste à s’assurer que l’éthique et les préjugés ne s’infiltrent pas dans les modèles. Comment devient-on un ? Timnit a obtenu son doctorat de l’Université de Stanford en informatique. Et elle a été formée dans un laboratoire, l’un des premiers laboratoires qui essayait d’utiliser des images d’Internet. Pouvons-nous utiliser des images comme entrée dans les systèmes d’IA ? Et découvert tout ce domaine et, en fin de compte, reconnu le problème du biais de l’IA. Le tCe qui est intéressant à son sujet, c’est qu’elle a vu ces problèmes si clairement, et elle en parle à cause de qui elle est, à cause de ses antécédents, parce qu’elle voit comment les gens sont affectés négativement quand ils ne font pas partie d’un système ou d’un processus. Et la clarté avec laquelle elle a vu les problèmes de biais de l’IA dès le début, pour moi, cela me souffle l’esprit parce que tout le monde en parle aujourd’hui. Timnit a été l’un des premiers à le voir et à le documenter.

BRIAN KENNY: bEt elle a une sorte de philosophie de la façon dont elle pense à DEI, et le plaidoyer sur ce front. Pouvez-vous nous en parler un peu?

TSEDAL NEELEY:bDésolument. Ce que j’ai appris, Brian, avec ce cas, et en lui parlant, et en lisant des travaux, ou même des choses qu’elle a publiées, c’est que le biais de l’IA ou l’IA, en général, est inextricablement lié à la DEI. Vous ne pouvez pas les séparer. Et c’est l’une des leçons que j’ai apprises, parce que ce qu’elle dit, c’est que le destinataire ou le sujet de, ou ceux qui subiront les conséquences de l’IA seront des communautés avec un pouvoir limité. Et ce sont eux qui sont le moins présents pour aider à influencer la technologie, les modèles qui sont construits. Ainsi, l’une des choses que Timnit a faites très tôt a été de co-fonder un groupe appelé « Black in AI ». Elle allait à ces conférences avec 5000, 6000, 7000 personnes – des conférences sur l’IA – et elle disait qu’il y aurait littéralement 4 ou 5 Personnes noires.

BRIAN KENNY : Waouh.

TSEDAL NEELEY : De ce nombre énorme. Et donc, en tant que résolveuse de problèmes, elle voit le problème, et très tôt a fondé ce groupe. Et c’est un groupe très mondial pour faire monter les chiffres, pour créer une plate-forme permettant aux gens de collaborer, de travailler ensemble et de renforcer les capacités qui pourraient soutenir le développement technologique futur.

BRIAN KENNY : J’ai trouvé toute cette notion de connexion entre la DEI et l’IA vraiment révélatrice parce qu’elle renforce en quelque sorte… Nous parlons beaucoup de problèmes systémiques, de questions systémiques de justice, de problèmes systémiques dans le secteur bancaire et le commerce de détail. Et il semblait que nous construisions ce genre de biais systématique dans le monde de l’IA, ce qui perpétuerait en quelque sorte toutes ces choses, n’est-ce pas ?

TSEDAL NEELEY : À grande échelle.

BRIAN KENNY : À grande échelle, oui.

TSEDAL NEELEY : C’est exactement ça. C’est la plus grande leçon que j’ai apprise, honnêtement, avec ce travail, et ce cas est que toute entreprise, toute organisation, tout groupe intéressé par la transformation numérique, l’intégration de l’IA dans son travail et l’utilisation de données pour créer des algorithmes et des modèles ne peut ignorer la composante DEI. Et, en fait, ils doivent s’assurer qu’ils ont les bonnes personnes qui regardent le travail, aident à concevoir le travail, développent le travail parce que sinon, les humains imparfaits créeront des systèmes défectueux.

BRIAN KENNY : Et c’est exactement ce que Timnit faisait. Alors la voici, elle est chez Google. De toute évidence, elle estime qu’il est important de faire la lumière sur ce qu’elle considère comme des problèmes dans ce domaine. Comment a-t-elle été reçue par ses collègues de Google ?

TSEDAL NEELEY : C’est intéressant parce que ce qu’elle dirait, c’est qu’il y a des gens qui l’appréciaient vraiment parce qu’elle était vocale. Elle s’assurerait de soutenir ses collègues. Si elle voyait quelqu’un être interrompu systématiquement, une personne minoritaire, elle parlerait. Elle essayait d’améliorer la culture pour les femmes et pour les personnes de couleur chez Google. Elle est intrépide. C’est l’une des questions que je lui ai posées, d’où vient-elle, cette intrépidité ? Vous parlez, vous n’avez tout simplement pas peur d’une manière qui ne m’est pas familière. Mais elle a juste ce feu à l’intérieur. Et si elle voit la vérité, si elle voit quelque chose, elle n’a pas peur de parler. Maintenant, à votre question, comment est-elle perçue? Avoir quelqu’un qui parle toujours sans crainte, ne vous donne pas la paix. Droite?

BRIAN KENNY : C’est exact.

TSEDAL NEELEY : Vous met au défi. Défie votre culture, remet en question le statu quo. Donc, vous pouvez imaginer comment cela pourrait être difficile pour une partie d’une organisation, en particulier les dirigeants. Nous n’aimons pas les gens qui s’agitent.

BRIAN KENNY: Il semblait que Google était activement impliqué dans une sorte de coaching des personnes qui examinaient l’éthique de l’IA au sein de l’entreprise. Et dans la mesure où ils leur donnaient presque des directives à ce sujet, eh bien, voici comment vous devriez communiquer à ce sujet. Et Timnit n’a pas emboîté le pas sur une partie de cela. Pouvez-vous nous en parler un peu?

TSEDAL NEELEY: Eh bien, le plus gros problème que cette affaire documente est son licenciement ou sa démission, selon le côté où vous vous trouvez, c’est parce que Google lui a demandé de retirer son papier, le papier des modèles de grande langue, ou de supprimer les noms de tous les affiliés de Google. Et l’idée qu’ils ne veulent pas que les initiés critiquent ou critiquent l’un de leurs systèmes technologiques. Et la réponse de Timnit, et c’était très public, si vous êtes sur Twitter, vous pouvez voir ceci, c’était très public, says, « Non, je ne peux pas retirer cet article parce que j’ai des co-auteurs et des collaborateurs. Et donc, ils comptent sur cette publication. Mais quels sont les enjeux? Dites-moi quels sont les problèmes, dites-moi comment réviser ce travail. » Et elle n’a pas eu beaucoup de détails sur la façon de réviser le document, mais sur certaines questions de procédure, ils l’ont finalement évincée.

BRIAN KENNY : Oui, et elle l’a rendu public. Elle a fait savoir cela à tout le monde via cette plate-forme qu’elle a, afin qu’elle ne s’en aille pas tranquillement.

TSEDAL NEELEY : Non.

BRIAN KENNY : Non.

TSEDAL NEELEY : Elle ne partait pas tranquillement. Et, en fait, elle s’est rendue sur Twitter, comme elle le fait toujours, pour discuter des problèmes d’éthique de l’IA, ou des problèmes de biais de l’IA, et a raconté son licenciement en détail, coup par coup, ce qui est la façon dont je l’ai vu pour la première fois. Et a dit: « Whoa, Timnit, est-ce que tout va bien là-bas? » Mais elle voulait s’assurer qu’elle ne serait pas tranquillement licenciée et cachée. Elle dit : « Non, je veux que le monde sache. » Et c’est l’une des choses qu’elle dit dans l’affaire qui m’a vraiment fait penser: « Si tout le monde prend un peu de risque en s’exprimant, même en nommant des noms, alors, avec le temps, l’ensemble sera en mesure de protéger les gens à l’avenir. » En d’autres termes, si je prends un peu de risque et que je m’exprime, cela aidera tout le monde à l’avenir, car beaucoup d’entre nous partageraient le risque. Mais la réalité, Brian, je connais peu de gens qui sont aussi audacieux et aussi courageux qu’elle.

BRIAN KENNY : Oui, parce que les enjeux sont très élevés ici. Et ce n’était même pas une situation de lanceur d’alerte dans le sens où elle n’essayait pas de signaler l’entreprise ou de les interpeller. Elle essayait juste de mettre en lumière ce qu’elle considérait comme des problèmes avec la recherche sur l’IA qu’ils faisaient. Et faites-le de manière responsable comme le ferait un chercheur. Donc, j’ai trouvé que c’était difficile à analyser parce que cela ne correspond pas vraiment à la question des lanceurs d’alerte. Maintenant, Google a fait un examen après action à ce sujet. Qu’ont-ils trouvé? Et qu’ont-ils fait à la suite de…?

TSEDAL NEELEY : Pas grand-chose. Le PDG, Sundar Pichai, s’est excusé, a reconnu très publiquement ce qui s’est passé et a parlé de ses regrets d’avoir perdu l’un des meilleurs experts en IA au monde, qui se trouve être une femme noire. Dans le même temps, neuf membres du Congrès américain lui ont écrit pour lui dire que ce qui est arrivé à Timnit est une censure sans précédent. Et se demander s’il est vraiment engagé dans l’éthique de l’IA ? Des milliers de personnes chez Google et en dehors de Google ont signé une pétition. Je vais vous dire ceci, l’attention que cela a suscitée et, bien sûr, les médias adorent l’histoire parce que c’est aussi une histoire inhabituelle. Donc, il a été présenté pratiquement partout. Et pour Timnit, qui est en fait une femme légère et à la voix douce, elle a senti qu’elle devait contrôler et gérer le récit à son sujet et sur la situation.

BRIAN KENNY : Bien sûr.

TSEDAL NEELEY : Sinon, le gorille de 800 livres le ferait.

BRIAN KENNY : Oui. Donc, cela soulève de sérieuses questions quant à savoir si Google peut ou non s’auto-contrôler sur ce front. Et puis, si vous élevez cela au-delà de Google, c’est que l’industrie peut-elle s’auto-contrôler? Et personne ne veut que le gouvernement supervise ce genre de choses, mais est-il possible pour les entreprises d’être circonspectes de la manière dont elles doivent empêcher le genre d’avenir que Stephen Hawking a décrit et que j’ai mentionné dans l’introduction. C’est en quelque sorte la dynamique à laquelle nous pensons.

TSEDAL NEELEY : C’est exactement la discussion que nous aurions dans une salle de classe. Cette idée d’autosurveillance. Une organisation peut-elle avoir des membres à l’interne pour s’auto-contrôler sans perdre la faveur? Ou avez-vous besoin d’une sorte d’étranger, d’un groupe extérieur pour contrôler votre travail? Parce que les dégâts, à cause de l’échelle qui vient à travers ces modèles, sont énormes. Les dégâts peuvent être énormes. Alors, était-ce condamné dès le départ, avoir une équipe d’éthique de l’IA, ou une équipe de recherche pour évaluer, évaluer, critiquer la technologie construite en interne? Est-ce que cela allait un jour fonctionner? Et, pour aller de l’avant pour chaque entreprise, pas seulement pour les entreprises de technologie, chaque entreprise pense à l’IA et doit se protéger contre les préjugés, quelle est la meilleure façon de s’assurer que cela ne se produise pas? Nous savons que la diversité est un gros problème, DEI. La deuxième question est la suivante: comment allez-vous vous auto-contrôler? Telles sont les questions fondamentales dont je pense que cette affaire nous incitera à discuter.

BRIAN KENNY : Alors, quel est le prochain mouvement de Timnit. Elle ne reste pas immobile. Elle ne lèche pas ses blessures. Elle a de grands projets.

TSEDAL NEELEY: Un an après le licenciement ou la démission, selon le côté mais Timnit dit qu’elle a été licenciée, elle a en fait lancé son propre institut appelé DAIR, D-A-I-R. DAIR signifie Distributed AI Research Institute. Et c’est un espace pour la recherche indépendante et communautaire sur l’IA sans l’influence omniprésente des grandes technologies. Et elle croit clairement qu’elle doit faire son travailk en dehors d’une entreprise, afin qu’elle puisse être indépendante, et développer des recherches, développer des idées, même aider d’autres entreprises avec leurs propres critiques sans l’influence d’une entreprise donnée. Et la partie distribuée de DAIR est qu’elle a des membres de l’équipe qui sont physiquement répartis dans le cadre de son institut. Elle a été financée par des entreprises formidables comme la Fondation MacArthur pour commencer. Elle est encore en train de trouver un modèle de revenus durable à long terme, mais certains de ses collègues de Google l’ont rejointe chez DAIR.

BRIAN KENNY: Maintenant, c’est intéressant parce que quand j’ai vu cela dans l’affaire, je me suis dit: « Eh bien, Google acceptera-t-il jamais les conclusions d’une organisation en dehors de la leur? » Eh bien, Microsoft va… Choisissez votre organisation qui est imprégnée d’IA, trouvera-t-elle que c’est une source acceptable de critiques pour ce qu’elle fait?

TSEDAL NEELEY : Je ne pense pas qu’ils seront en mesure de vraiment savoir si leur propre technologie, leurs propres modèles, leurs propres algorithmes peuvent être critiqués de cette façon. Mais ce que Timnit peut faire un peu comme les universités, ou une institution comme la nôtre, c’est développer des idées qui peuvent être généralisées ou extrapolées pour mieux comprendre certaines de ces technologies qui émergent. Et je pense que cela fait partie de ce que Timnit peut faire. Mais je pense aussi que Timnit et son équipe seront très utiles pour de nombreuses organisations afin de s’assurer que les préjugés et l’éthique de l’IA ne sont pas violés, afin qu’ils puissent aider tant d’entreprises. Je veux dire, je ne sais pas si Timnit serait tout à fait d’accord avec ce point de vue. Mais je pense souvent à elle quand je parle à des entreprises qui essaient de renforcer leurs capacités numériques, qui introduisent l’IA dans leurs systèmes et qui construisent des algorithmes, je pense à Timnit.

BRIAN KENNY : Oui. Eh bien, il semble que quelque chose comme DAIR est en retard et grandement nécessaire. Ce fut une excellente conversation. Je dois poser une autre question avant de vous laisser partir. Et c’est-à-dire que si vous voulez que nos auditeurs se souviennent d’une chose à propos de Timnit, et de cette affaire, quelle serait-elle?

TSEDAL NEELEY: Si vous êtes intéressé par l’intelligence artificielle, vous devez comprendre comment vous allez chasser les biais de l’IA ou les problèmes éthiques de l’IA de vos systèmes d’IA. Parce que ce n’est pas une question de si, c’est une question de quand les préjugés peuvent devenir nuisibles. Vous devez donc penser aux préjugés et à l’éthique lorsque vous envisagez d’intégrer l’IA dans votre organisation.

BRIAN KENNY : Tsedal, merci de vous joindre à moi sur Appel à froid. Jusqu’à la prochaine fois, c’était génial de vous parler de cette affaire. Merci.

TSEDAL NEELEY : Merci beaucoup. J’ai hâte.

BRIAN KENNY: Si vous aimez Appel à froid vous aimerez peut-être aussi nos autres podcasts : Après les heures d’ouverture, Le climat monte, Skydecket Gérer l’avenir du travail. Trouvez-les sur Apple Podcasts ou partout où vous écoutez. Assurez-vous de nous noter et de nous évaluer sur n’importe quelle plate-forme de podcast où vous écoutez. Si vous avez des suggestions ou si vous voulez simplement dire bonjour, nous voulons avoir de vos nouvelles. Envoyez-nous un courriel à coldcall@hbs.edu. Merci encore de vous joindre à nous. Je suis votre hôte, Brian Kenny, et vous avez écouté Appel à froid, un podcast officiel de la Harvard Business School, présenté par le réseau HBR Presents.

Rate this post
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici