Une autre des principales chercheuses en Sécurité d’OpenAI, Lilian Weng, a annoncé vendredi qu’elle quittait la start-up. Weng était vice-président de la recherche et de la sécurité depuis le mois d’août, et avant cela, il était à la tête de l’équipe des systèmes de sécurité d’OpenAI.
Dans un post sur X, Weng a déclaré qu' »après 7 ans chez OpenAI, je me sens prêt à me remettre à zéro et à explorer quelque chose de nouveau ». Weng a déclaré que son dernier jour serait le 15 novembre, mais n’a pas précisé où elle irait ensuite.
« J’ai pris la décision extrêmement difficile de quitter OpenAI », a déclaré Weng dans le post. « En regardant ce que nous avons accompli, je suis tellement fier de tout le monde dans l’équipe des systèmes de sécurité et j’ai une très grande confiance dans le fait que l’équipe continuera à prospérer. »
Le départ de Weng est le dernier d’une longue série de chercheurs en sécurité de l’IA, de chercheurs en politiques et d’autres dirigeants qui ont quitté l’entreprise au cours de la dernière année, et plusieurs ont accusé OpenAI de donner la priorité aux produits commerciaux plutôt qu’à la sécurité de l’IA. Weng rejoint Ilya Sutskever et Jan Leike – les dirigeants de l’équipe Superalignment d’OpenAI, aujourd’hui dissoute, qui a tenté de développer des méthodes pour piloter des systèmes d’IA superintelligents – qui ont également quitté la startup cette année pour travailler sur la sécurité de l’IA ailleurs.
Weng a rejoint OpenAI pour la première fois en 2018, selon elle Lien LinkedIn, travaillant dans l’équipe de robotique de la startup qui a fini par construire une main robot capable de résoudre un Rubik’s cube – une tâche qui a pris deux ans à accomplir, selon son post.
Alors qu’OpenAI commençait à se concentrer davantage sur le paradigme GPT, Weng a fait de même. Le chercheur a fait la transition pour aider à constituer l’équipe de recherche appliquée en IA de la startup en 2021. Après le lancement de GPT-4, Weng a été chargé de créer une équipe dédiée pour construire des systèmes de sécurité pour la startup en 2023. Aujourd’hui, l’unité des systèmes de sécurité d’OpenAI compte plus de 80 scientifiques, chercheurs et experts en politique, selon le post de Weng.
C’est beaucoup de spécialistes de la sécurité de l’IA, mais beaucoup ont soulevé des inquiétudes quant à l’accent mis par OpenAI sur la sécurité alors qu’elle tente de construire des systèmes d’IA de plus en plus puissants. Miles Brundage, un chercheur politique de longue date, a quitté la startup en octobre et a annoncé qu’OpenAI dissolvait son équipe de préparation à l’AGI, qu’il avait conseillée. Le même jour, le New York Times a dressé le portrait d’un ancien chercheur d’OpenAI, Suchir Balaji, qui a déclaré qu’il avait quitté OpenAI parce qu’il pensait que la technologie de la startup apporterait plus de mal que d’avantages à la société.
OpenAI a déclaré à fr.techtribune.netque les dirigeants et les chercheurs en sécurité travaillent sur une transition pour remplacer Weng.
« Nous apprécions profondément les contributions de Lilian à la recherche révolutionnaire en matière de sécurité et à la mise en place de garanties techniques rigoureuses », a déclaré un porte-parole d’OpenAI dans un communiqué envoyé par courrier électronique. « Nous sommes convaincus que l’équipe des systèmes de sécurité continuera à jouer un rôle clé pour garantir la sécurité et la fiabilité de nos systèmes, au service de centaines de millions de personnes dans le monde. »
Parmi les autres dirigeants qui ont quitté OpenAI ces derniers mois, citons la directrice technique Mira Murati, le directeur de la recherche Bob McGrew et le vice-président de la recherche Barret Zoph. En août, l’éminent chercheur Andrej Karpathy et le cofondateur John Schulman ont également annoncé qu’ils quitteraient la startup. Certaines de ces personnes, dont Leike et Schulman, sont parties pour rejoindre un concurrent d’OpenAI, Anthropic, tandis que d’autres ont lancé leur propre entreprise.