Cet article parle d’agression sexuelleEn 1993, le journaliste indépendant Julian Dibbell a rédigé un essai qui ouvrirait la voie à des conversations sur les limites de la liberté d’expression, du consentement et des abus dans les communautés numériques.

La pièce, « A Rape in Cyberspace », relate les conséquences d’un « cyber viol » par un joueur dans un jeu textuel appelé LambdaMOO.

Le joueur, « Mr Bungle », avait pris le contrôle des avatars d’autres joueurs et les avait programmés pour décrire graphiquement des actes sexuels.

Dans une salle de discussion et un monde virtuel peuplé d’utilisateurs précoces d’Internet, des avatars se sont rassemblés pour discuter du traumatisme émotionnel que cela leur avait causé et des conséquences que devraient avoir les actions de M. Bungle.

Un utilisateur, dont l’avatar a été victime, a qualifié ses activités de « manquement à la civilité ». Dans la vraie vie, dit-elle, « des larmes post-traumatiques coulaient sur son visage ».

M. Bungle s’est avéré être l’avatar d’un étudiant universitaire encouragé par ses camarades. Aucune mesure n’a été prise à leur encontre.

Publicité

Près de trente ans après cette pièce, un autre récit deviendra également viral. Cette fois, une testeuse bêta du métaverse a déclaré qu’elle avait été virtuellement « violée en groupe » sur la plateforme de réalité virtuelle (VR) Horizon Worlds, créée par Meta, l’entreprise anciennement connue sous le nom de Facebook.

« Dans les 60 secondes qui ont suivi mon adhésion – j’ai été harcelé verbalement et sexuellement – 3-4 avatars masculins, avec des voix masculines, essentiellement, mais ont pratiquement violé mon avatar et pris des photos – alors que j’essayais de m’enfuir, ils ont crié – ‘ne pas prétendez que vous ne l’aimiez pas « et » allez vous frotter à la photo «  », se souvient Nina Jane Patel

.

« Une expérience horrible qui s’est produite si vite et avant même que je puisse penser à mettre en place la barrière de sécurité. J’ai gelé.

« C’était surréaliste. C’était un cauchemar. »

Le rêve de généraliser le métaverse

Meta veut que le «métaverse» soit la prochaine grande chose – et pas comme Tik Tok big, comme Internet big.

Un coup d’œil dans le métaverse nous dit que ce sera une société numérique en trois dimensions. Il y aura des identités virtuelles, vous magasinerez et socialiserez dans des espaces virtuels, collaborerez dans des bureaux virtuels, vous exercerez dans des classes virtuelles et il y aura des économies virtuelles.

Avec les bons contrôleurs et équipements, vous pouvez simuler une classe de spin ou même une salle de réunion pour collaborer avec des collègues dans différentes villes.

Waaach5Baeaaaaalaaaaaabaaeaaaicraeaow==

Waaach5Baeaaaaalaaaaaabaaeaaaicraeaow==

Il promet de l’hyperréalisme (rappelez-vous qu’il y a plus d’un paysage VR, pas seulement celui caricatural de Meta) et vous fait croire que vous le vivez.

« Aucune entreprise ne possédera et n’exploitera le métaverse. Comme Internet, sa principale caractéristique sera son ouverture et son interopérabilité », a déclaré Meta dans un communiqué publié sur son site Web.

Waaach5Baeaaaaalaaaaaabaaeaaaicraeaow==

M. Zuckerberg y croit tellement qu’il a renommé sa société de réseautage social Meta.

Google travaille depuis des années sur la technologie liée au métaverse. Apple et Microsoft ont également rejoint la course pour préparer leur technologie à une adoption généralisée.

Alors que les premiers avis sur l’annonce de M. Zuckerberg en octobre dernier l’ont étiqueté un peu « boiteux », ont fustigé le nom et l’ont qualifié d' »arrogant » pour marquer la réalité virtuelle – qui existe depuis des années – d’autres avaient des préoccupations plus sinistres.

Dans un monde en trois dimensions, des experts, des utilisateurs et des défenseurs soulèvent des questions sur les abus et le harcèlement.

« Une infraction toutes les sept minutes »

Dans un jeu de réalité virtuelle populaire, VRChat, une violation se produit environ une fois toutes les sept minutes, selon le Centre for Countering Digital Hate (CCDH) à but non lucratif basé à Londres, qui surveille la désinformation et le contenu préjudiciable en ligne.

L’application n’appartient pas à Meta mais est hébergée sur sa plateforme Quest connectée à son casque. Le CCDH affirme que Meta devrait donc assumer la responsabilité de la sécurité des utilisateurs.

Bien que Meta ait des fonctionnalités de rapport et de blocage pour la plate-forme Quest plus large, il n’est pas clair ce que quelqu’un rapportera.

Le groupe de chercheurs a passé 11 heures sur le jeu, l’application numéro un de l’App Store de Meta, et a trouvé 100 instances de quelque chose qui était une « violation manifeste » de

.

Imran Ahmed, directeur général du groupe, a déclaré Le flux le groupe a été tellement choqué par le matériel qu’il n’a pas diffusé les images, qui contiennent « des abus, du harcèlement, du racisme et du contenu pornographique ».

« Si c’est un espace sûr pour les racistes et les gens qui prêchent le génocide blanc, les théories du complot et les gens qui harcèlent les enfants de 12 ans, alors ce n’est pas un espace sûr pour les Noirs, les personnes brunes ou les enfants. »

M. Ahmed raconte un incident à Le flux.

« Un exemple était un groupe d’adultes entourant un adolescent et lui demandant de dire le mot N et disant, si vous dites le mot N, cette fille vous donnera un baiser virtuel.

« Finalement, le jeune enfant, et c’est assez effrayant la vidéo brute, montre clairement la voix d’un enfant prononçant le mot N.

« Ce n’est pas un endroit où vous enverriez des enfants seuls. »

Une Photo De Vrchat Avec Un Avatar Féminin.

Une photo de VRChat. Crédit: L’émission de réalité virtuelle/Youtube

Bien que les enfants ne soient pas autorisés à jouer à Horizon World, M. Ahmed a déclaré qu’il était facile de se connecter à un casque Oculus Quest, fabriqué par Meta. Signaler des problèmes, les résoudre ou obtenir une réponse ne l’était pas.

Seuls 51 des incidents ont pu être signalés à Meta à l’aide de leur formulaire Web car ils ne pouvaient pas être associés à un nom d’utilisateur dans sa base de données – une exigence pour une plainte.

Aucun des rapports n’a été reconnu par Meta de quelque manière que ce soit, a déclaré M. Ahmed.

« Facebook a encore une fois opté pour la vitesse de croissance par rapport à la sécurité des bâtiments dès le premier jour… c’est exactement le contraire de ce qu’ils nous ont dit qu’ils allaient faire. »

L’année dernière, au moment de l’annonce du métaverse, M. Zuckerberg a promis
« la sécurité et la confidentialité et l’inclusion avant même que les produits n’existent ».

Une lettre du CCDH à Monika Bickert, vice-présidente de la politique de contenu chez Meta, a partagé ses conclusions.

« Nous n’avons aucun moyen de savoir si votre entreprise a l’intention d’agir contre l’un des auteurs, dont certains pourraient être coupables d’abus en ligne contre des mineurs », lit-on dans la lettre.

Infographie Sur Les Conclusions Du Ccdh.

Crédit: SBS Le Flux

Le CCDH n’a pas reçu de réponse.

Plus tôt ce mois-ci, des journalistes de BuzzFeed News ont rempli le jeu Horizon World de contenus interdits sur Facebook et Instagram pour tester sa modération. Dans l’article, ils ont déclaré que le monde était passé inaperçu « jusqu’à ce que l’équipe de relations publiques en entende parler ».

Le chef de produit de Meta pour l’intégrité VR, Bill Stillwell, a déclaré Le flux dans une déclaration : « Nous voulons que tous ceux qui utilisent nos produits aient une bonne expérience et trouvent facilement les outils qui peuvent aider dans des situations comme celles-ci, afin que nous puissions enquêter et agir. »

Il a ajouté : « Pour les applications multiplateformes… nous fournissons des outils qui permettent aux joueurs de signaler et de bloquer les utilisateurs.

« Nous continuerons d’apporter des améliorations à mesure que nous en apprendrons davantage sur la façon dont les gens interagissent dans ces espaces. »

Attirer l’attention sur le problème ou l’aggraver ?

Les préjudices ont toujours existé dans la réalité virtuelle et augmentée, a déclaré Ben Egliston, chercheur postdoctoral au Digital Media Research Center de la Queensland University of Technology.

« Je pense que c’est peut-être une bénédiction mitigée que nous voyions une entreprise de la taille de Facebook entrer dans le métaverse, car elle oblige les universitaires et les décideurs à accorder plus d’attention à cette question de préjudice social dans ces environnements », a déclaré M. Egliston. Le flux.

Mais il y a des raisons d’être sceptique, surtout quand on regarde l’histoire de Facebook, a-t-il ajouté.

Alors que Meta a investi dans l’innovation responsable où les concepteurs sont conscients des méfaits sociaux, promettant transparence et inclusivité, il n’est pas sûr que cela soit appliqué.

Meta a gardé secrète une grande partie de la façon dont il prévoit d’appliquer ses protocoles de sécurité en réalité virtuelle.

« Il y a un degré auquel ce type de politique est en fait performatif plutôt que quelque chose qui est réellement destiné à avoir un impact significatif », a déclaré M. Egliston.

« Facebook est une entreprise qui a l’habitude d’extraire des données de ses utilisateurs, permettant à divers types de dommages de se produire sur la plate-forme et ne se souciant pas explicitement du bien-être des jeunes utilisateurs sur leur plate-forme. »

Un rapport du Financial Times a cité une note envoyée aux employés de Meta par l’exécutif menant la poussée dans le métaverse, Andrew Bosworth, dans laquelle il a déclaré qu’il est pratiquement impossible de modérer la façon dont les utilisateurs parlent et se comportent « à n’importe quelle échelle significative ».

LIRE LA SUITE

Yh5Baeaaaaalaaaaaabaaeaaaibraa7

Des documents internes de Facebook divulgués l’année dernière et connus sous le nom de Facebook Papers, ont révélé que le géant des médias sociaux suivait en privé et méticuleusement les dommages réels exacerbés par ses plateformes, ignorait les avertissements des employés sur les risques de ses décisions de conception et exposait les personnes vulnérables à des contenus dangereux.

M. Ahmed a déclaré qu’il est clair que l’ambition de Meta est de diriger la prochaine ère de la technologie, en dépensant 10 milliards de dollars sur le métaverse rien qu’en 2021 tout en annonçant son intention d’embaucher 10 000 nouveaux membres du personnel pour « faire fonctionner le métaverse ».

« La question que nous essayions de poser était, ‘Est-ce que [Meta] une entreprise apte et appropriée pour dominer ce cycle technologique ? » dit M. Ahmed.

La maltraitance en trois dimensions

À quoi ressembleront les abus et l’intimidation dans un environnement numérique global où le toucher est rendu réel et l’expérience sensorielle est renforcée ?

Meta a dévoilé une nouvelle fonctionnalité par défaut plus tôt ce mois-ci, « une limite d’espace personnel » qui sépare votre avatar des autres d’environ un mètre après que des problèmes de sécurité se soient manifestés publiquement. Mais cela ne concerne que les applications appartenant à Meta.

Le flux a contacté les personnes qui ont joué dans des paysages VR, avec un numéro indiquant qu’il appartenait à l’utilisateur de bloquer les personnes autour d’eux. D’autres ont dit que c’était une partie acceptée du jeu, en particulier pour les femmes.

« Le ‘harcèlement sexuel’ dans le ‘métaverse’ peut être résolu en mettant en sourdine/bloquant quelqu’un », a déclaré une personne.

D’autres ont complètement nié le potentiel de traumatisme.

Mais la commissaire à la sécurité australienne, Julie Inman Grant, qui a travaillé comme lobbyiste chez Microsoft pendant 17 ans, a critiqué cette proposition. Elle a déclaré qu’il ne devrait pas incomber à l’utilisateur de filtrer les abus et qu’un traumatisme pourrait très bien être perpétré.

« Même lorsque vous êtes victime d’abus sur Twitter, cela peut être émotionnellement pénible. Imaginez ce que ce genre d’agression doit ressembler [in VR or AR].”

M. Ahmed a convenu : « C’est un environnement physiquement confrontant qui est conçu pour simuler la réalité. Cela fait croire à notre cerveau que nous voyons en 3D.

« À quel moment quelque chose devient-il si cicatrisant, qu’il entraîne un traumatisme, des ramifications psychologiques très graves. »

« C’est une question de volonté »: des mesures pratiques peuvent être prises

La modération des abus en temps réel sera délicate, mais Mme Grant a déclaré que l’intégration de la sécurité dans la conception est possible et se résume à une « question de volonté ».

« Mon observation ayant été dans l’industrie est qu’ils ont tendance à réagir ou à répondre à trois facteurs potentiels : s’il y a un impact important sur les revenus, s’il y a une grande menace réglementaire ou s’il y a une menace pour la réputation », a déclaré Mme Grant.

Elle a déclaré qu’avec un peu d’investissement et d’innovation, les abus dans le métaverse pourraient être évités.

M. Ahmed a déclaré qu’il y avait des protections manquantes évidentes dans la conception de Meta.

Si quelqu’un enfreint les règles à plusieurs reprises, M. Ahmed a déclaré que le casque correspondant devrait être désactivé. Il a dit que c’était comme expulser quelqu’un d’un pub.

« Mais finalement, ils ont choisi de ne pas le faire parce qu’ils pensent que cela peut vendre plus d’appareils à des utilisateurs plus précoces en donnant l’impression que c’est un environnement » tout est permis «  », a déclaré M. Ahmed.

Un autre angle mort qui le préoccupe est le « manque de porte dérobée » pour les forces de l’ordre en cas d’infractions grotesques au droit pénal.

Pour Meta, Mme Grant a un message.

« Si vous pouvez créer un métaverse, vous pouvez également en créer un plus sûr. »

Si vous ou quelqu’un que vous connaissez avez besoin d’aide, veuillez contacter 1800RESPECT au 1800 737 732 ou visitez

.

Rate this post
Publicité
Article précédent3 artistes que les joueurs de Fortnite recherchent dans un concert ou dont ils en ont assez
Article suivantPorsche AG a discuté d’éventuels projets communs avec le fabricant d’iPhone Apple

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici