Avant le coup d’envoi du sommet sur la Sécurité de l’IA à Séoul, en Corée du Sud plus tard cette semaine, son co-organisateur, le Royaume-Uni, intensifie ses propres efforts dans ce domaine. L’AI Safety Institute – un organisme britannique créé en novembre 2023 dans le but ambitieux d’évaluer et de traiter les risques dans les plateformes d’IA – a déclaré qu’il ouvrirait un deuxième site… à San Francisco.

L’idée est de se rapprocher de ce qui est actuellement l’épicentre du développement de l’IA, la région de la baie de San Francisco abritant OpenAI, Anthropic, google et Meta, entre autres, construisant une technologie d’IA fondamentale.

Les modèles fondamentaux sont les éléments constitutifs des services d’IA générative et d’autres applications, et il est intéressant de noter que bien que le Royaume-Uni ait signé un protocole d’accord avec les États-Unis pour que les deux pays collaborent sur des initiatives de sécurité de l’IA, le Royaume-Uni choisit toujours d’investir dans la mise en place d’une présence directe aux États-Unis pour s’attaquer au problème.

« En ayant des gens sur le terrain à San Francisco, cela leur donnera accès au siège de beaucoup de ces entreprises d’IA », a déclaré Michelle Donelan, secrétaire d’État britannique à la science, à l’innovation et à la technologie, dans une interview avec fr.techtribune.net. « Un certain nombre d’entre eux ont des bases ici au Royaume-Uni, mais nous pensons qu’il serait très utile d’avoir une base là-bas également, et d’avoir accès à un bassin supplémentaire de talents, et de pouvoir travailler encore plus en collaboration et main dans la main avec les États-Unis. »

Cela s’explique en partie par le fait que, pour le Royaume-Uni, être plus proche de cet épicentre est utile non seulement pour comprendre ce qui est construit, mais aussi parce que cela donne au Royaume-Uni plus de visibilité auprès de ces entreprises – ce qui est important, étant donné que l’IA et la technologie dans leur ensemble sont considérées par le Royaume-Uni comme une énorme opportunité de croissance économique et d’investissement.

Publicité

Et compte tenu du dernier drame d’OpenAI autour de son équipe de Superalignement, il semble que le moment soit particulièrement opportun pour y établir une présence.

L’AI Safety Institute, lancé en novembre 2023, est actuellement une affaire relativement modeste. L’organisation ne compte aujourd’hui que 32 personnes, un véritable David pour le Goliath de la technologie de l’IA, si l’on considère les milliards de dollars d’investissement qui reposent sur les entreprises qui construisent des modèles d’IA, et donc leurs propres motivations économiques pour mettre leurs technologies entre les mains d’utilisateurs payants.

L’un des développements les plus notables de l’AI Safety Institute a été la publication, plus tôt ce mois-ci, d’Inspect, son premier ensemble d’outils pour tester la sécurité des modèles d’IA fondamentaux.

Donelan a qualifié aujourd’hui cette publication d’effort de « phase un ». Non seulement il s’est avéré difficile à ce jour de comparer les modèles, mais pour l’instant, l’engagement est un arrangement facultatif et incohérent. Comme l’a souligné une source haut placée d’un organisme de réglementation britannique, les entreprises n’ont aucune obligation légale de faire vérifier leurs modèles à ce stade ; Et toutes les entreprises ne sont pas prêtes à faire approuver les modèles avant leur lancement. Cela pourrait signifier que, dans les cas où un risque pourrait être identifié, le cheval peut déjà s’être enfui.

Donelan a déclaré que l’AI Safety Institute était encore en train de développer la meilleure façon de s’engager avec les entreprises d’IA pour les évaluer. « Notre processus d’évaluation est une science émergente en soi », a-t-elle déclaré. « Donc, à chaque évaluation, nous développerons le processus et l’affinerons encore plus. »

Donelan a déclaré que l’un des objectifs à Séoul serait de présenter Inspect aux régulateurs réunis au sommet, dans le but de les amener à l’adopter également.

« Maintenant, nous avons un système d’évaluation. La deuxième phase doit également viser à rendre l’IA sûre dans l’ensemble de la société », a-t-elle déclaré.

À plus long terme, Donelan pense que le Royaume-Uni élaborera davantage de législation sur l’IA, même si, répétant ce que le Premier ministre Rishi Sunak a dit sur le sujet, il résistera à le faire jusqu’à ce qu’il comprenne mieux l’ampleur des risques liés à l’IA.

« Nous ne croyons pas qu’il faille légiférer avant d’avoir une bonne prise en main et une compréhension complète », a-t-elle déclaré, notant que le récent rapport international sur la sécurité de l’IA, publié par l’institut axé principalement sur la tentative d’obtenir une image complète de la recherche à ce jour, « a souligné qu’il manque de grandes lacunes et que nous devons encourager et encourager davantage de recherche à l’échelle mondiale.

« Et la législation prend environ un an au Royaume-Uni. Et si nous avions commencé à légiférer quand nous avons commencé au lieu de [organizing] le Sommet sur la sécurité de l’IA [held in November last year], nous serions toujours en train de légiférer maintenant, et nous n’aurions rien à montrer pour cela. »

« Depuis le premier jour de l’Institut, nous avons clairement compris l’importance d’adopter une approche internationale en matière de sécurité de l’IA, de partager la recherche et de travailler en collaboration avec d’autres pays pour tester les modèles et anticiper les risques de l’IA de pointe », a déclaré Ian Hogarth, président de l’AI Safety Institute. « Aujourd’hui marque un moment charnière qui nous permet de faire avancer ce programme, et nous sommes fiers d’étendre nos opérations dans un domaine regorgeant de talents technologiques, en ajoutant à l’incroyable expertise que notre personnel à Londres a apportée depuis le tout début. »

5/5 - (414 votes)
Publicité
Article précédentJ'ai essayé des hot pods et des saunas mobiles en Irlande et j'ai découvert pourquoi ils sont si populaires
Article suivantKai Cenat remarque « F*ck IGN » en réponse à la couverture du marathon d'Elden Ring

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici