Le metaverse du groupe Meta se développant de mois en mois, des questions arrivent sur la table telle que celle concernant les IA.
Le metaverse serait, selon de récents rapports, un marché de près de 800 milliards de dollars. Et pourtant, alors que certains cherchent encore à définir ce dont il s’agit réellement, ce dernier est entouré de tellement d’argents et de curiosité que tout le monde en parle.
L’IA jouera sans le moindre doute un grand rôle dans le metaverse, surtout lorsqu’il s’agit de la manière dont nous communiquerons avec d’autres. Alors que nous serons plus connectés que nous ne l’auront jamais été, une IA qui ne serait régie par aucun gouvernement, standard ou code d’éthique pourrait avec des répercussions insoupçonnées. La question se pose alors : qui définit les règles ?
Pas le temps de tout lire ? Clique pour aller directement à la partie qui t’intéresse le plus :
→ Comprendre les implications de l’IA
→ Utiliser l’IA pour traduire des messages dans le metaverse
Comprendre les implications de l'IA
Parce que les algorithmes des IA sont programmées par des personnes avec des biais, ils peuvent être créés en suivant les schémas de pensée et les biais de leurs créateurs. On a déjà vu ce genre d’exemple avec des IA qui avait tendance à « préférer » une ethnicité à une autre, à cause des « données d’entraînement » que l’IA utilise et analyse, et qui n’était pas assez variées. Pour créer un metaverse plus florissant et équitable, les problèmes d’IA « sombre » qui peuvent créer et entretenir ces biais doivent être corrigés. Mais qui prend cette décision ? Et comment les humains peuvent-ils éviter ces biais ?
La solution pour limiter cette « IA incontrôlée » est de créer des standards éthiques pour toutes les organisations. Car la plupart de ces IA sont développées sans prêter attention au point de vue éthique, et c’est une chose qui doit changer dans le metaverse.
Utiliser l'IA pour traduire des messages dans le metaverse
L’opportunité qu’une IA puisse aider n’importe quel être humain à devenir un super-polyglotte, et à pouvoir parler et comprendre toutes les autres langues, semble réjouissante. Mais il est encore plus intéressant de comprendre comment cela pourrait fonctionner.
Dans le metaverse, la plupart des utilisateurs communiqueront vraisemblablement dans leur langue maternelle, et pourront potentiellement être aidés de traducteurs basés sur l’IA. Mais cette technologie pourrait également perpétuer ces biais si les développeurs ne sont pas attentifs. Nous devons être sûr que ces IA en linguistiques soient elles aussi entraînées à être éthique.
Si l’avatar de Thomas veut parler à l’avatar de Dylan, mais que ces derniers ne parlent pas la même langue. Comment l’IA traduira-t-elle leurs messages ? En temps réel ? Ou doit-elle traduire également l’intention de la personne, plutôt que de manière littérale, de sorte que l’interlocuteur puisse mieux comprendre ? (On pense notamment à des langues comme le Japonais, où beaucoup de termes sont similaires, mais où l’intonation , ou encore le contexte, jouent un très grand rôle dans la compréhension des intentions du locuteur.)
Flouter les frontières entre humain et machine
À quel point nous sommes « humain » dans le metaverse aura son importance. Les entreprises pourront utiliser ces technologies pour traduire rapidement leurs interactions en différentes langues, ce qui pourra les aider à créer des communauté en ligne, et à créer de la confiance et de l’inclusion.
Cependant, si nous ne faisons pas attention aux mots choisis, cette technologie peut alors créer des biais et provoquer des comportements grossiers. De quelle manière ? Avez-vous déjà entendu un enfant parler avec un assistant vocal ? Lorsque les gens savent qu’ils interagissent avec une technologie désincarnée, et pas un véritable être humain, ils ne ressentent pas le besoin d’être poli. Au lieu de ça, les clients sont généralement insultants envers les chatbots, les assistants vocaux et les lignes téléphoniques automatisées. Dans un monde idéal, l’IA utilisée pour interagir avec notre langage saura capturer les nuances de tons et avoir l’empathie nécessaire à représenter de façon précise le discours d’un humain, pour faire en sorte que le metaverse soit un lieu où l’humain et la technologie puissent s’améliorer ensemble.
Une IA impersonnelle pourrait également avoir un impact négatif. Les bons mots peuvent créer une véritable compréhension et connexion émotionelle. Le bon message, choisi par une IA, pourrait alors aider à humaniser une marque. La confiance d’un client passe par l’utilisation de sa langue natale. Mais comment donner une langue natale à une entreprise immatérielle ? Et comment créer de la confiance dans cet environnement ?
Le metaverse a un vrai potentiel pour offrir d’avantage de visibilité aux entreprises dans le domaine du virtuel. Les utilisateurs commencent à affirmer pleinement leur « style virtuel », et cela ne va faire que continuer à se démocratiser. Les marques vont chercher à créer des expériences qui sembleront authentiques, voir même plus intéressantes que si vous étiez présent sur place. La barre est très haute, et les technologies de langage intelligentes seront une part importante de ces avancées.
Ce à quoi ressemblera le metaverse reste encore à définir. Mais personne ne veut être la marque dont on se souviendra parce que son IA affectait de façon disproportionnée un groupe de gens plutôt qu’un autre, ou comment leur IA déshumanisait leur produit. L’IA deviendra meilleure au fur et à mesure, sans l’ombre d’un doute. Mais si nous n’y faisons pas attention, elle pourrait avoir de sévère répercussions sur la manière dont nous interagissons dans ces espaces virtuels. C’est pourquoi avoir des IA responsables ou éthiques est une nécessité.
L’essor de l’IA dans ce domaine risque de faire peur ou bien de déshumaniser davantage des marques, des produits ou des interactions. C’est aux chercheurs et experts dans le domaine qu’il convient de travailler avec les marques pour trouver des solutions afin que ces technologies nous permettent de mieux nous comprendre, et de ne pas dresser une barrière supplémentaire à la compréhension entre les utilisateurs.