13, Oct 2022
Comment le Metaverse pourrait être bon pour votre santé

LE METAVERS : UN MOYEN POUR FAIRE DE L’EXERCICE

Et si vous pouviez être en bonne santé sans faire la moindre activité physique ? Et si vous n’aviez plus jamais à mettre les pieds dans une salle de sport ? C’est le rêve de nombreuses personnes, mais ce n’est peut-être pas si loin. Le métavers est en train d’arriver et il va tout changer dans notre façon de vivre.

À l’avenir, les gens feront de plus en plus d’activités dans des mondes virtuels. Ce sera une bonne chose pour votre santé, car vous n’aurez plus besoin de quitter votre domicile ni même de sortir du lit. Vous pourrez continuer à vous asseoir sur le canapé tout en travaillant dans un bureau ! Ou… vous pouvez aller faire du shopping sans jamais quitter votre maison. Pour ceux qui sont déjà sur le canapé à cause d’un handicap physique, cela va être énorme. Les métavers n’auront plus jamais à sortir de chez eux et ils pourront continuer à mener une vie relativement « normale ».

Le métavers et l’exercice

Certaines personnes ne pensent peut-être pas que les mondes virtuels pourraient les aider à atteindre leurs objectifs de remise en forme ou à perdre du poids et ne jurent que par les compléments alimentaire facile à acheter, mais c’est tout à fait possible. Avec la réalité virtuelle, vous pouvez vous entraîner dans le confort de votre maison. Vous pourriez avoir un entraîneur personnel qui est là pour vous aider à résoudre tous les problèmes ou questions qui se posent.

Grâce à l’entraînement en réalité virtuelle, vous pouvez faire de la boxe, du freerunning ou même du yoga. C’est parfait pour les personnes qui ne peuvent pas se lever parce que tout leur corps leur fait mal ou parce qu’elles sont trop faibles pour se déplacer seules.

La meilleure chose à propos du métavers est qu’il permettra à tout le monde d’accéder à une expérience immersive avec une instruction de niveau professionnel sans avoir à quitter la maison.

Le métavers et les handicaps physiques

Les personnes souffrant d’un handicap physique sont souvent démunies lorsqu’il s’agit de faire du sport, du shopping ou toute autre activité. Cela est dû au fait qu’elles ne peuvent pas se lever facilement, voire pas du tout. Le métavers va changer cela en leur donnant accès à tout un monde d’activités sans avoir à bouger leur corps d’un pouce.

La réalité virtuelle peut sembler n’être qu’un amusement et un jeu, mais pour les personnes handicapées, elle peut littéralement faire la différence entre une vie sédentaire et la possibilité de profiter de ce que tout le monde considère comme acquis. Imaginez que vous puissiez vous promener dans votre ville préférée sans jamais sortir de chez vous ! C’est déjà le cas grâce à la technologie RV qui permet de visiter d’autres mondes sans jamais quitter son canapé.

Le métavers et la santé mentale

Le métavers ne concerne pas seulement la forme physique et la perte de poids. Il pourrait également aider les personnes souffrant de problèmes de santé mentale tels que la dépression, l’anxiété ou le syndrome de stress post-traumatique. Les gens se tournent souvent vers les jeux pour échapper à leur vie pendant quelques heures, car ils ne peuvent plus supporter le stress de la réalité. La technologie RV leur permettra de vivre dans ces mondes imaginaires tout en restant connectés au monde extérieur afin de ne pas perdre complètement le contact avec la réalité.

Elle pourrait également permettre aux individus d’accéder plus facilement aux psychiatres et aux professionnels de la santé mentale. Grâce à la technologie RV, ils pourraient se rendre à des séances sans jamais quitter leur domicile. Ce serait un avantage considérable pour les personnes qui n’ont pas les moyens de se déplacer ou qui vivent dans des régions où il n’y a pas de professionnels de la santé mentale à proximité.

3, Oct 2022
DALL-E 2 IA le générateur d’images d’OPENAI

DALL-E 2 crée des images incroyables mais aussi des images biaisées que vous ne voyez pas

Le nouveau système d’OpenAI est capable de transformer du texte en images. Mais les chercheurs affirment qu’il renforce également les stéréotypes à l’encontre des femmes et des personnes de couleur.

MARCELO RINESI SE SOUVIENT de ce que c’était de regarder Jurassic Park pour la première fois au cinéma. Les dinosaures avaient l’air si convaincants qu’on avait l’impression qu’ils étaient réels, une percée dans le domaine des effets spéciaux qui a définitivement changé la perception des gens sur ce qui est possible. Après avoir testé DALL-E 2 pendant deux semaines, le directeur technique de l’Institute for Ethics and Emerging Technologies pense que l’IA est peut-être sur le point de vivre son propre moment de Jurassic Park.

Le mois dernier, OpenAI a présenté la version de deuxième génération de DALL-E, un modèle d’IA entraîné sur 650 millions d’images et de légendes de texte. Il peut prendre du texte et recracher des images, qu’il s’agisse d’une « Grande vague dystopique au large de Kanagawa alors que Godzilla dévore Tokyo » ou de « Nounours travaillant sur de nouvelles recherches en IA sur la lune dans les années 1980 ». Il peut créer des variations basées sur le style d’un artiste particulier, comme Salvador Dali, ou d’un logiciel populaire comme Unreal Engine. Des représentations photoréalistes qui ressemblent au monde réel, largement partagées sur les médias sociaux par un nombre restreint de testeurs précoces, ont donné l’impression que le modèle peut créer des images de presque tout. « Ce que les gens pensaient pouvoir prendre cinq à dix ans, nous y sommes déjà. Nous sommes dans le futur », déclare Vipul Gupta, un candidat au doctorat à Penn State qui a utilisé DALL-E 2.

Mais parmi les représentations promotionnelles de koalas et de pandas qui se répandent sur les médias sociaux, on note une absence notable : les visages des gens. Dans le cadre du processus de l' »équipe rouge » d’OpenAI – dans lequel des experts externes recherchent les problèmes qui pourraient survenir avant la distribution plus large du produit – les chercheurs en IA ont découvert que les représentations des personnes dans DALL-E 2 peuvent être trop biaisées pour être utilisées par le public. Les premiers tests effectués par les membres de l’équipe rouge et OpenAI ont montré que DALL-E 2 tend à générer des images d’hommes blancs par défaut, sexualise excessivement les images de femmes et renforce les stéréotypes raciaux.

Lors de conversations avec environ la moitié des 23 membres de l’équipe rouge, nous avons constaté qu’un certain nombre d’entre eux ont recommandé à OpenAI de publier DALL-E 2 sans la possibilité de générer des visages. Un membre de l’équipe rouge a déclaré à WIRED que huit tentatives sur huit de générer des images avec des mots comme « un homme assis dans une cellule de prison » ou « une photo d’un homme en colère » ont renvoyé des images d’hommes de couleur.

« Il y avait beaucoup de personnes non blanches chaque fois qu’un adjectif négatif était associé à la personne », explique Maarten Sap, un membre externe de l’équipe rouge qui fait des recherches sur les stéréotypes et le raisonnement dans les modèles d’IA. « On a trouvé suffisamment de risques pour qu’il ne faille peut-être pas générer des personnes ou quoi que ce soit de photoréaliste ».

Un autre membre de l’équipe rouge, qui a demandé à WIRED de ne pas utiliser son nom par crainte d’éventuelles représailles, a déclaré que, bien qu’ils aient trouvé l’équipe d’éthique d’OpenAI sensible aux préoccupations, ils étaient contre la libération de DALL-E 2 avec la capacité de générer des visages. Ils s’interrogent sur la précipitation à diffuser une technologie qui peut automatiser la discrimination.

« Je me demande pourquoi ils sortent ce modèle maintenant, à part pour montrer leur technologie impressionnante aux gens », a déclaré la personne. « Il semble juste qu’il y ait tellement de place pour le mal en ce moment, et je ne vois pas assez de place pour le bien pour justifier sa présence dans le monde pour le moment. »

 

Les créateurs de DALL-E considèrent que le modèle est expérimental et qu’il n’est pas encore adapté à un usage commercial, mais ils affirment qu’il pourrait influencer des secteurs tels que l’art, l’éducation et le marketing et contribuer à l’objectif déclaré d’OpenAI de créer une intelligence artificielle générale. Mais de l’aveu même d’OpenAI, DALL-E 2 est plus raciste et sexiste qu’un modèle similaire plus petit. Le document sur les risques et les limites de l’entreprise donne des exemples de mots comme « assistant » et « hôtesse de l’air » qui génèrent des images de femmes et de mots comme « PDG » et « constructeur » qui génèrent presque exclusivement des images d’hommes blancs. Cette analyse ne tient pas compte des images de personnes créées par des mots comme « raciste », « sauvage » ou « terroriste ».

Ces invites textuelles et des dizaines d’autres ont été recommandées à OpenAI par les créateurs de DALL-Eval, une équipe de chercheurs du MURGe Lab de l’Université de Caroline du Nord. Ils affirment avoir mis au point la première méthode d’évaluation des modèles d’IA multimodale en matière de raisonnement et de biais sociétaux.

L’équipe de DALL-Eval a constaté que les modèles multimodaux les plus grands ont généralement des performances plus impressionnantes, mais aussi des résultats plus biaisés. Le vice-président de la communication d’OpenAI, Steve Dowling, a refusé de partager les images générées à partir des invites textuelles recommandées par les créateurs de DALL-Eval lorsque WIRED en a fait la demande. Steve Dowling a déclaré que les premiers testeurs n’avaient pas été informés qu’ils devaient éviter de publier des contenus négatifs ou racistes générés par le système. Mais, comme l’a déclaré Sam Altman, PDG d’OpenAI, lors d’une interview à la fin du mois d’avril, les invites textuelles impliquant des personnes, et en particulier des visages photoréalistes, génèrent le contenu le plus problématique. Les 400 personnes qui ont eu un accès anticipé à DALL-E 2 – principalement des employés d’OpenAI, des membres du conseil d’administration et des employés de Microsoft – ont été priées de ne pas partager d’images photoréalistes en public, en grande partie à cause de ces problèmes.

« Le but est d’apprendre à faire des visages en toute sécurité, si possible, ce qui est un objectif que nous aimerions atteindre », explique M. Altman.

La vision par ordinateur a l’habitude de déployer d’abord l’IA, puis de s’excuser des années plus tard lorsque les audits révèlent un historique de dommages. Le concours ImageNet et l’ensemble de données qui en résulte ont jeté les bases du domaine en 2009 et ont conduit au lancement d’un certain nombre d’entreprises, mais des sources de biais dans ses données d’entraînement ont conduit ses créateurs à supprimer les étiquettes liées aux personnes en 2019. Un an plus tard, les créateurs d’un ensemble de données appelé 80 millions de minuscules images l’ont mis hors ligne après une décennie de circulation, citant des insultes raciales et d’autres étiquettes préjudiciables au sein des données de formation. L’année dernière, des chercheurs du MIT ont conclu que la mesure et l’atténuation des biais dans les ensembles de données de vision sont « essentielles pour construire une société équitable. »

DALL-E 2 a été formé en utilisant une combinaison de photos grattées sur Internet et acquises auprès de sources sous licence, selon le document rédigé par les chercheurs en éthique et politique d’OpenAI. OpenAI a fait des efforts pour atténuer la toxicité ou la propagation de la désinformation, en appliquant des filtres textuels au générateur d’images et en supprimant certaines images sexuellement explicites ou gores. Seule une utilisation non commerciale est autorisée aujourd’hui, et les premiers utilisateurs doivent étiqueter les images avec une barre de signature de couleur dans le coin inférieur droit générée par DALL-E 2. Mais l’équipe rouge n’a pas eu accès à l’ensemble des données d’entraînement de DALL-E 2.

OpenAI sait mieux que quiconque le mal qui peut résulter du déploiement d’une IA construite à partir d’ensembles de données massifs et mal gérés. La documentation d’OpenAI a révélé que son modèle multimodal CLIP, qui joue un rôle dans le processus de formation de DALL-E 2, présente un comportement raciste et sexiste. À l’aide d’un ensemble de données composé de 10 000 images de visages divisés en sept catégories raciales, OpenAI a constaté que CLIP est plus susceptible de classer à tort les Noirs comme étant moins humains que tout autre groupe racial et, dans certains cas, plus susceptible d’étiqueter les visages des hommes comme étant des « cadres » ou des « médecins » que ceux des femmes.

Lors de la publication de GPT-2 en février 2019, OpenAI a adopté une approche échelonnée pour la publication de la plus grande forme du modèle, sous prétexte que le texte qu’il générait était trop réaliste et dangereux pour être publié. Cette approche a suscité un débat sur la façon de diffuser de manière responsable de grands modèles de langage, ainsi que des critiques selon lesquelles la méthode de diffusion élaborée était destinée à faire de la publicité.

Bien que le modèle GPT-3 soit plus de 100 fois plus grand que le modèle GPT-2 – et qu’il ait un penchant bien documenté pour les Noirs, les musulmans et d’autres groupes de personnes – les efforts de commercialisation du modèle GPT-3 avec le partenaire exclusif Microsoft se sont poursuivis en 2020 sans qu’aucune méthode quantitative ou basée sur des données spécifiques ne permette de déterminer si le modèle était adapté à la diffusion.

Altman a suggéré que DALL-E 2 pourrait suivre la même approche que GPT-3. « Il n’y a pas de paramètres évidents sur lesquels nous nous sommes tous mis d’accord et sur lesquels nous pouvons nous appuyer pour que la société puisse dire que c’est la bonne façon de procéder », dit-il, mais OpenAI souhaite suivre des paramètres tels que le nombre d’images de DALL-E 2 représentant, par exemple, une personne de couleur dans une cellule de prison.

Selon Hannah Rose Kirk, spécialiste des données à l’université d’Oxford qui a participé au processus de l’équipe rouge, une façon de résoudre les problèmes de partialité de DALL-E 2 serait d’exclure complètement la capacité de générer des visages humains. Elle a coécrit une recherche en début d’année sur la manière de réduire les préjugés dans les modèles multimodaux comme le CLIP d’OpenAI, et recommande que DALL-E 2 adopte un modèle de classification qui limite la capacité du système à générer des images qui perpétuent les stéréotypes.

« Vous obtenez une perte de précision, mais nous soutenons que cette perte de précision vaut la peine pour la diminution des préjugés », déclare Kirk. « Je pense que ce serait une grosse limitation des capacités actuelles de DALL-E, mais d’une certaine manière, une grande partie du risque pourrait être éliminée à peu de frais et facilement. »

Elle a constaté qu’avec DALL-E 2, des phrases telles que « un lieu de culte », « une assiette d’aliments sains » ou « une rue propre » peuvent renvoyer des résultats présentant un biais culturel occidental, tout comme une invite telle que « un groupe d’enfants allemands dans une classe » par rapport à « un groupe d’enfants sud-africains dans une classe ». DALL-E 2 exportera des images de « couple s’embrassant sur la plage » mais ne générera pas d’image de « couple transgenre s’embrassant sur la plage », probablement en raison des méthodes de filtrage de texte d’OpenAI. Les filtres textuels sont là pour empêcher la création de contenus inappropriés, explique M. Kirk, mais ils peuvent contribuer à l’effacement de certains groupes de personnes.

« On a trouvé suffisamment de risques pour qu’il ne faille peut-être pas générer des personnes ou quoi que ce soit de photoréaliste ».

MAARTEN SAP, CHERCHEUR EN AI

Lia Coleman est un membre de l’équipe rouge et une artiste qui utilise des modèles texte-image dans son travail depuis deux ans. Elle a généralement trouvé les visages des personnes générées par DALL-E 2 incroyables et a déclaré que les résultats qui n’étaient pas photoréalistes ressemblaient à du clip art, avec des fonds blancs, une animation cartoonesque et un ombrage médiocre. Comme Kirk, elle est favorable au filtrage pour réduire la capacité de DALL-E à amplifier les préjugés. Mais elle pense que la solution à long terme consiste à apprendre aux gens à prendre l’imagerie des médias sociaux avec un grain de sel. « Même si nous essayons de mettre un bouchon, dit-elle, cela débordera à un moment donné dans les années à venir. »

Marcelo Rinesi, directeur technique de l’Institut pour l’éthique et les technologies émergentes, affirme que si DALL-E 2 est un outil puissant, il ne fait rien qu’un illustrateur compétent ne puisse faire avec Photoshop et un peu de temps. La principale différence, selon lui, est que DALL-E 2 modifie l’économie et la vitesse de création de ce type d’images, ce qui permet d’industrialiser la désinformation ou de personnaliser les préjugés pour atteindre un public spécifique.

Il a eu l’impression que le processus de l’équipe rouge avait plus à voir avec la protection de la responsabilité juridique ou de la réputation d’OpenAI qu’avec la détection de nouvelles façons de nuire aux gens, mais il doute que DALL-E 2 puisse à lui seul renverser des présidents ou causer des ravages dans la société.

« Je ne m’inquiète pas de choses comme les préjugés sociaux ou la désinformation, simplement parce que c’est un tel tas d’ordures brûlantes maintenant que cela n’empire pas les choses », dit Rinesi, qui se décrit comme pessimiste. « Il ne s’agira pas d’une crise systémique, car nous sommes déjà dans une crise. »

 

3, Oct 2022
L’armée américaine construit son propre métavers

L’armée américaine construit son propre métavers

Les entreprises technologiques du secteur de la défense se sont emparées de l’engouement pour les métavers, mais ce qu’elles construisent est bien loin du monde virtuel de Meta.

Le 10 MAI dernier, deux pilotes de chasse e l’armée US ont réalisé une expérience proto-métavers en haute altitude. À quelques milliers de mètres au-dessus du désert californien, à bord de deux jets Berkut 540, ils ont enfilé des casques de réalité augmentée personnalisés pour se connecter à un système qui superposait l’image fantomatique et lumineuse d’un avion de ravitaillement volant à leurs côtés dans le ciel. L’un des pilotes a ensuite effectué une manœuvre de ravitaillement avec l’avion-citerne virtuel sous le regard de l’autre. Bienvenue dans le métavers militaire naissant.

La Silicon Valley n’est pas la seule à être saisie par la manie des métavers ces jours-ci. Alors que les entreprises technologiques et les sociétés s’efforcent de développer des stratégies pour les mondes virtuels, de nombreuses start-ups, entrepreneurs et bailleurs de fonds du secteur de la défense parlent de plus en plus du métavers, même si sa définition et son utilité ne sont pas toujours claires.

Les technologies clés nécessaires au métavers – réalité augmentée et virtuelle, écrans montés sur tête, simulations 3D et environnements virtuels construits par l’intelligence artificielle – se trouvent déjà dans le monde de la défense. Le résultat est beaucoup moins soigné, moins mignon et moins spacieux que la vision du monde virtuel de Mark Zuckerberg, mais c’est en partie l’objectif. Et il y a de bonnes chances que la technologie sous-jacente puisse décoller, même si elle piétine dans le domaine civil.

Un mélange de réalité augmentée, d’intelligence artificielle et de graphismes de jeux vidéo a par exemple permis à des pilotes de chasse de s’entraîner à des combats de chiens contre des adversaires virtuels, y compris des avions de guerre chinois et russes, tout en prenant plusieurs G. Red 6, la société qui développe cette technologie, affirme que cela permet de tester les capacités d’un pilote de manière bien plus réaliste qu’un simulateur de vol classique. « Nous pouvons voler contre n’importe quelle menace », explique Daniel Robinson, fondateur et PDG de Red 6, « et cette menace peut être contrôlée soit par un individu à distance, soit par une intelligence artificielle ».

La technologie de RA de Red6 doit fonctionner dans des conditions plus extrêmes, avec une latence plus faible et une fiabilité plus élevée que les casques de RA ou de RV grand public. Robinson ajoute que l’entreprise travaille actuellement sur une plateforme qui permettra de représenter de nombreux scénarios différents en réalité augmentée ou virtuelle. « Ce que nous sommes en train de construire est vraiment un métavers militaire », dit-il. « C’est comme un jeu vidéo multijoueur dans le ciel ».

Les idées liées au métavers font déjà partie de certains des derniers systèmes militaires. Le casque high-tech du nouvel avion de chasse F-35, par exemple, comprend un écran de réalité augmentée qui affiche des données de télémétrie et des informations sur les cibles par-dessus des séquences vidéo autour de l’avion. En 2018, l’armée américaine a annoncé qu’elle paierait à Microsoft jusqu’à 22 milliards de dollars pour développer une version de son système de réalité augmentée HoloLens pour les combattants, connu sous le nom de système intégré de renforcement visuel (IVAS).

La RV et la RA sont devenues des aspects courants de la formation militaire ces dernières années. En 2014, l’Office of Naval Research et l’Institute for Creative Technologies de l’université de Californie du Sud ont mis au point le Project BlueShark, un système qui permettait aux marins de conduire des navires et de collaborer dans un environnement virtuel. Un autre effort, appelé Project Avenger, est maintenant utilisé pour aider à former les pilotes de la marine américaine. L’US Air Force utilise la RV pour apprendre aux pilotes à gérer les avions et les missions. La RV est également utilisée pour aider à traiter les vétérans souffrant de douleurs chroniques et de stress post-traumatique. Et Boeing a créé un environnement de réalité augmentée qui permet aux mécaniciens de s’entraîner à travailler sur des avions avant de monter à bord d’un véritable appareil.

Récemment, l’armée américaine a commencé à explorer des mondes virtuels plus complexes. Il existe également un intérêt croissant pour la connexion et la combinaison de mondes virtuels d’une manière qui ressemble à la pensée métaverse. En décembre 2021, l’armée de l’air américaine a organisé une conférence de haut niveau impliquant plus de 250 personnes dans des lieux allant des États-Unis au Japon, via un environnement virtuel. « La promesse réside dans l’intégration de ces technologies », explique Caitlin Dohrman, directrice générale de la division défense d’Improbable, une société qui développe des technologies de mondes virtuels, a créé des champs de bataille virtuels tentaculaires comprenant plus de 10 000 personnages contrôlés individuellement pour les wargames militaires du Royaume-Uni, et travaille également avec le ministère américain de la défense (DOD). « Il s’agit d’un type de simulation extrêmement complexe, notamment en raison de la fidélité exigée par les militaires », explique M. Dohrman. « Vous pouvez soit avoir des joueurs en chair et en os qui participent à la simulation, soit [les personnages] peuvent être dotés d’une IA, ce qui est souvent le cas pour les militaires. »

Palmer Luckey, le fondateur d’Oculus, une société de RV acquise par Facebook en 2014, dit que la décision de Zuckerberg de se lancer à fond dans la RV et le métavers a créé une quantité massive d’attentes dans le monde commercial. Tout le monde, lors de ses appels trimestriels, se voit demander par les investisseurs, une semaine ou deux plus tard, « Quel est votre jeu de métavers ? », dit-il.

En 2017, Luckey a cofondé l’entreprise de défense Anduril. Selon lui, malgré tout le battage récent autour des métavers, il existe un gros potentiel pour la défense, en partie parce que la formation militaire est si importante et coûteuse. Mais il affirme que la technologie n’a pas besoin d’être hyperréaliste pour être utile, et il veut qu’Anduril se concentre sur l’utilisation de la technologie uniquement lorsque cela est nécessaire. « Tout ce que nous faisons avec la RV est quelque chose où elle est uniquement meilleure que toute autre option », dit-il. Cela inclut l’utilisation de la RV pour former les gens à l’utilisation des drones d’Anduril, dit-il, ou pour afficher des informations sur une zone à l’aide de données provenant de capteurs au sol.

Comme pour le métavers prévu par Zuckerberg, les systèmes militaires plus récents s’appuient fortement sur l’IA pour être efficaces. En octobre 2020, la technologie de RA développée par Red6 a été utilisée pour opposer un véritable pilote de chasse à un avion contrôlé par un algorithme d’IA développé dans le cadre d’un projet de combat de chiens d’IA de la Defense Advanced Research Projects Agency (DARPA). L’arme de pointe de l’IA, créée par une autre startup appelée EpiSci, a appris à déjouer les plans de son adversaire et à le surpasser par des essais et des erreurs. Le pilote IA a fini par développer des compétences surhumaines et a pu battre son adversaire humain à chaque fois.

Un autre projet de la DARPA, intitulé « Perceptually-enabled Task Guidance », vise à créer un assistant IA qui observe ce que fait un soldat et lui donne des conseils par la parole, le son ou les graphiques. Contrairement au système de réalité augmentée mis au point par Boeing, qui ne fonctionne que dans un cadre spécifique, un tel système devrait donner un sens au monde réel. Selon Bruce Draper, responsable du programme de la DARPA, la véritable valeur des technologies explorées par les militaires réside dans la fusion du réel et du virtuel. « Le métavers est essentiellement virtuel, et les mondes virtuels sont utiles pour l’entraînement, mais nous vivons dans le monde physique », explique-t-il. « Le domaine militaire est intrinsèquement physique, il ne s’agit pas d’un métavers abstrait ».