Le problème avec la plupart des tentatives de réglementation de l’IA jusqu’à présent est que les législateurs se concentrent sur une expérience future mythique de l’IA, au lieu de vraiment comprendre les nouveaux risques que l’IA introduit réellement.
C’est ce qu’a fait valoir Martin Casado, associé général d’Andreessen Horowitz, VC, devant une salle comble lors du fr.techtribune.netDisrupt 2024 la semaine dernière. Casado, qui dirige la pratique d’infrastructure de 1,25 milliard de dollars d’a16z, a investi dans des startups d’IA telles que World Labs, Cursor, Ideogram et Braintrust.
« Les technologies transformatrices et la réglementation font partie du discours depuis des décennies, n’est-ce pas ? Donc, le problème avec tout le discours sur l’IA, c’est qu’elle semble être sortie de nulle part », a-t-il déclaré à la foule. « Ils essaient en quelque sorte d’élaborer de nouvelles réglementations sans tirer de ces leçons. »
Par exemple, il a dit : « Avez-vous vraiment vu les définitions de l’IA dans ces politiques ? Comme, nous ne pouvons même pas le définir.
Casado faisait partie d’une marée de voix de la Silicon Valley qui se sont réjouies lorsque le gouverneur de Californie, Gavin Newsom, a opposé son veto à la tentative de loi de l’État sur la gouvernance de l’IA, SB 1047. La loi voulait mettre un soi-disant kill switch dans les modèles d’IA très grands – c’est-à-dire quelque chose qui les désactiverait. Ceux qui se sont opposés au projet de loi ont déclaré qu’il était si mal formulé qu’au lieu de nous sauver d’un futur monstre d’IA imaginaire, il aurait simplement confondu et entravé la scène brûlante du développement de l’IA en Californie.
« J’entends régulièrement des fondateurs rechigner à s’installer ici à cause de ce que cela signale sur l’attitude de la Californie à l’égard de l’IA – que nous préférons une mauvaise législation basée sur des préoccupations de science-fiction plutôt que sur des risques tangibles », a-t-il ajouté. il a posté sur X quelques semaines avant que le projet de loi ne fasse l’objet d’un veto.
Bien que cette loi d’État soit morte, le fait qu’elle ait existé dérange toujours Casado. Il craint que d’autres projets de loi, construits de la même manière, ne se matérialisent si les politiciens décident de se plier aux craintes de la population générale à l’égard de l’IA, plutôt que de gouverner ce que la technologie fait réellement.
Il comprend la technologie de l’IA mieux que quiconque. Avant de rejoindre la société de capital-risque, Casado a fondé deux autres sociétés, dont une société d’infrastructure réseau, Nicira, qu’il a vendue à VMware pour 1,26 milliard de dollars il y a un peu plus de dix ans. Avant cela, Casado était un expert en Sécurité informatique chez Laboratoire national Lawrence Livermore.
Il affirme que de nombreux projets de réglementation de l’IA ne proviennent pas de ceux qui comprennent le mieux la technologie de l’IA, y compris les universitaires et le secteur commercial qui crée des produits d’IA, et n’ont pas été soutenus par eux.
« Il faut avoir une notion de risque marginal qui est différente. Par exemple, en quoi l’IA est-elle aujourd’hui différente de celle d’une personne utilisant google ? En quoi l’IA est-elle aujourd’hui différente de celle d’une personne qui utilise simplement Internet ? Si nous avons un modèle pour expliquer en quoi c’est différent, vous avez une certaine notion de risque marginal, et vous pouvez ensuite appliquer des politiques qui traitent de ce risque marginal », a-t-il déclaré.
« Je pense que nous sommes un peu tôt avant de commencer à nous réjouir [onto] un tas de réglementations pour vraiment comprendre ce que nous allons réglementer », affirme-t-il.
Le contre-argument – et celui soulevé par plusieurs personnes dans le public – était que le monde n’avait pas vraiment vu les types de dommages qu’Internet ou les médias sociaux pouvaient causer avant que ces dommages ne soient sur nous. Lorsque Google et Facebook ont été lancés, personne ne savait qu’ils domineraient la publicité en ligne ou collecteraient autant de données sur les individus. Personne ne comprenait des choses comme la cyberintimidation ou les chambres d’écho lorsque les médias sociaux étaient jeunes.
Les défenseurs de la réglementation de l’IA invoquent souvent ces circonstances passées et affirment que ces technologies auraient dû être réglementées dès le début.
La réponse de Casado ?
« Il existe aujourd’hui un régime réglementaire solide qui a été développé sur 30 ans », et il est bien équipé pour élaborer de nouvelles politiques pour l’IA et d’autres technologies. Il est vrai qu’au niveau fédéral seulement, les organismes de réglementation comprennent tout, de la Federal Communications Commission à la Commission de la Chambre des représentants sur la science, l’espace et la technologie. Lorsque fr.techtribune.neta demandé à Casado, mercredi après les élections, s’il maintenait cette opinion – selon laquelle la réglementation de l’IA devrait suivre la voie déjà tracée par les organismes de réglementation existants – il a répondu par l’affirmative.
Mais il pense également que l’IA ne devrait pas être ciblée en raison de problèmes avec d’autres technologies. Les technologies à l’origine des problèmes devraient plutôt être ciblées.
« Si nous nous sommes trompés dans les médias sociaux, vous ne pouvez pas le réparer en le mettant sur l’IA », a-t-il déclaré. « Les gens de la réglementation de l’IA se disent : « Oh, nous nous sommes trompés dans le domaine social, donc nous allons bien faire les choses dans l’IA », ce qui est une déclaration absurde. Allons le réparer dans les réseaux sociaux.