Le métaverse sera soumis à une réglementation britannique stricte, exposant les géants de la technologie derrière les mondes virtuels à des milliards de livres d’amendes potentielles, selon les experts dont les travaux sous-tendent le prochain projet de loi sur la sécurité en ligne.

L’avertissement, qui est soutenu par le gouvernement britannique, intervient quelques jours seulement après que Meta, la société anciennement connue sous le nom de Facebook, ait signalé les risques réglementaires potentiels de sa stratégie métaverse aux investisseurs dans un dépôt de titres. Meta a déjà dépensé 10 milliards de dollars pour construire sa division de réalité augmentée non rentable, cherchant à créer un monde virtuel rempli d’avatars.

« Les entreprises technologiques ne peuvent pas utiliser le métaverse pour échapper à la réglementation », mentionné Lorna Woods et William Perrin, les universitaires responsables de la création du modèle qui sous-tend le projet de loi sur la sécurité en ligne. « Le sentiment est que Meta a déplacé le débat vers un nouveau type de service qui échappe à la réglementation. Mais ce n’est pas du tout le cas à notre avis. Le régime de sécurité en ligne s’applique.

Des ministres britanniques, dont Chris Philp et Nadine Dorries, ont également déjà averti que la nouvelle loi s’appliquerait dans le métaverse, quelle que soit la forme future qu’elle prendrait.

Meta a déclaré que la sécurité et la confidentialité seront intégrées dans ses conceptions de métaverse et qu’elle avait déjà engagé 50 millions de dollars dans la recherche dans ce domaine.

Publicité

Le directeur général de Microsoft, Satya Nadella, a également décrit l’achat de 75 milliards de dollars de la société de jeux vidéo Activision par sa société comme étant au cœur de l’avenir de l’interaction en ligne, car les gens passent plus de temps dans le métaverse.

Meta a déclaré dans son rapport annuel 10-K jeudi que ses efforts de métaverse pourraient être soumis à de nouvelles lois aux États-Unis et dans le monde « y compris dans les domaines de la confidentialité et du commerce électronique, ce qui peut retarder ou entraver le développement de nos produits et services, augmenter nos coûts d’exploitation, nécessiter un temps de gestion important et attention, ou autrement nuire à notre entreprise ».

Les mondes virtuels, où les avatars 3D réalistes des utilisateurs peuvent s’exprimer dans une gamme plus complète de paroles et de gestes humains, présentent un défi de modération de contenu encore plus grand que les centaines de millions de messages écrits et d’images qui circulent chaque jour sur Facebook, WhatsApp et Instagram .

Le patron de la réalité virtuelle de Meta, Andrew Bosworth, a admis que la réalité virtuelle peut souvent être un «environnement toxique», en particulier pour les femmes et les minorités. Il a déclaré dans une note interne de mars consultée par le Financial Times que la modération du comportement des utilisateurs « à n’importe quelle échelle significative est pratiquement impossible ».

« La grande mise en garde est que nous ne savons pas ce qu’est le métaverse, il est donc basé sur notre meilleure estimation de ce à quoi il pourrait ressembler. . .[but] nous devons réfléchir à ce à quoi ressemblent les atténuations ou les solutions qui sont différentes dans le métaverse, en particulier en temps réel, par rapport aux plates-formes statiques basées sur du texte ou des images », a déclaré Woods, professeur de droit de l’internet à l’Université d’Essex.

Les espoirs de Meta d’intégrer les paiements numériques basés sur la blockchain compliquent davantage le chemin vers le métaverse, ce qui, a-t-il averti, impliquera également un degré élevé d’incertitude juridique et de risque technique.

Rate this post
Publicité
Article précédentLe jeu mobile Dungeon & Fighter sera lancé en Corée du Sud le 24 mars
Article suivantL’impôt sur les bénéfices de la crypto-monnaie est désormais très élevé. Est-ce une bonne chose, une mauvaise chose ou rien ?

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici