J’ai parlé au PNJ IA de Nvidia : c’est impressionnant, étrange, un cauchemar éthique, et inévitablement là pour rester – qu’on le veuille ou non

Habituellement, lorsque vous allez voir l’une des grandes puissances matérielles, les présentations sont principalement axées sur… eh bien, vous savez – le matériel. Cependant, cela a changé au fil des années, à mesure que les logiciels spécialisés deviennent un élément de plus en plus vital du champ de bataille du matériel informatique.

Nvidia a mené une grande partie de cette charge. Lorsque vous achetez un GPU de la série RTX, vous ne l’achetez pas seulement pour la puissance brute de rastérisation, c’est-à-dire le nombre de pixels et d’images qu’il peut transmettre avec le maximum de fonctionnalités visuelles activées. Vous l’achetez également pour une implémentation logicielle spécifique qui facilitera la présentation de vos jeux – des éléments comme DLSS et Frame Generation, qui peuvent augmenter les fréquences d’images sans sacrifier la splendeur visuelle, ou Reflex, qui vise à réduire le décalage d’entrée.

Tout cela fait bien sûr partie d’une plus grande course aux armements graphiques. Lorsqu’une fonctionnalité est ajoutée par un fabricant, l’autre riposte avec une alternative équivalente ou meilleure. À mesure que cette course s’intensifie, Nvidia voit une opportunité de synchroniser le jeu avec son autre intérêt clé : l’intelligence artificielle.

Le plus grand exemple de la façon dont diverses branches de l’IA pourraient se combiner pour créer quelque chose de très réel et de très important pour le jeu est Nvidia ACE – un système qui génère essentiellement des PNJ alimentés par l’IA. Habituellement, lorsque vous parlez à un PNJ dans un jeu, celui-ci est écrit par une personne, interprété par une personne et comporte donc un ensemble limité de phrases et d’invites vocales. Nvidia ose demander : et si une IA écrivait un PNJ à la volée ?

La réponse naturelle, bien sûr, est de lever les yeux au ciel. Puis vient la contrariété : bien, oui, mais qu’en est-il des foutus gens qui travaillent à donner vie à ces personnages ? Il n’y a pas d’art sans un artiste humain – ou du moins vivant et respirant –. J’en suis sûr. Mais continuons un instant et demandons : à quel point est-ce bon, de toute façon ? Ces emplois sont-ils menacés en faveur d’une IA améliorée par GPU ?

La réponse de Nvidia serait de dire qu’il faut encore du talent artistique pour créer ces personnages. À mi-chemin d’une démonstration pratique du bavardage de l’IA, les représentants de l’entreprise semblent anticiper ces critiques en récupérant une partie du back-end d’Inworld Engine, la technologie qui alimente la démo. Dans le back-end, nous pouvons voir un profil détaillé d’un des personnages avec lesquels vous pouvez converser. C’est à la fois une démonstration du talent artistique toujours impliqué et de la polyvalence de l’IA.

{ e.preventDefault(); e.currentTarget.closest(‘.video_wrapper’).innerHTML = e.currentTarget.querySelector(‘template’).innerHTML; activerElements(); })(event) » title= »Cliquez pour lire la vidéo depuis YouTube »>
Image de couverture pour la vidéo YouTubeNVIDIA ACE | NVIDIA x Inworld AI – Repousser les limites des personnages de jeu grâce à un protocole secret

Est-ce vraiment l’avenir ?Regardez sur YouTube

Fondamentalement, vous déposez des informations sur le personnage en question. Cela peut être quelques lignes les résumant, ou une description très détaillée de leur histoire de vie, de leurs perspectives, de leurs goûts, de leurs aversions, de leurs proches – tout ce que vous voulez. Une fois ces informations définies par un humain, le reste est transmis à l’IA, qui s’appuie sur ce profil ainsi que sur les connaissances plus générales dont elle dispose sur le monde du jeu afin de formuler des réponses. Ces réponses sont ensuite renvoyées au joueur via une configuration de synthèse vocale.

Quel que soit mon ressenti éthique sur tout cela, je ne vous mentirai pas sur le résultat final : en tant que première démo technologique, c’est sacrément impressionnant. La démo nous amène à une conférence technique de type GDC, essayant de retrouver un personnage spécifique. Dans le hall d’un hôtel, il y a trois personnes avec qui converser : un chasseur, l’employé à l’enregistrement et l’un des invités de la conférence, un type de PDG de haute technologie. Chacun a sa propre personnalité – et sa propre « mission », pour ainsi dire, en termes de ce qu’il doit transmettre au joueur.

Les représentants de Nvidia parlent beaucoup de « garde-corps » dans ce contexte. La nature libre du chat avec une IA en utilisant votre voix réelle signifie que vous pouvez vous promener – et donc l’IA est fortement fermée en termes de ce qu’elle va divulguer, comment elle va le dire, et ainsi de suite. Je mentionne le cas réel des chatbots du support client des compagnies aériennes promettant des remboursements qui enfreignaient techniquement la politique de l’entreprise après avoir été contournés par une conversation sinueuse avec les clients ; pourriez-vous tromper un PNJ en lui faisant divulguer des informations qu’il n’est pas censé fournir avec une langue suffisamment glissante ? Les représentants de Nvidia disent non, si les caractères sont bien définis. La même chose s’applique pour garantir que les personnages ne disent pas quelque chose d’offensant ou d’inapproprié.

Le résultat est une conversation étrangement guindée, mais qui semble naturelle – et le fait que vous obtiendrez un dialogue différent même en posant plusieurs fois la même question. est profondément intéressant. Ce que vous commencez à remarquer, c’est que l’IA s’accroche durement à des éléments spécifiques de leur biographie. Bellboy Tae rêve de posséder son propre bar et de posséder son propre cocktail signature – et il en parlerait à presque toutes les occasions possibles. Alors que je le bombardais de questions sur sa vie, ses sentiments et ma mission dans la démo, il trouvait toujours un moyen de revenir aux cocktails. Mais lorsqu’on lui a demandé des ingrédients, il ne pouvait pas les donner – probablement cela ne figurait pas dans sa biographie, ou l’IA était programmée pour ne pas donner d’instructions plus explicites sur la consommation d’alcool, de peur qu’un utilisateur final n’ait besoin de se faire pomper l’estomac.

Tae est l'un des trois PNJ pilotés par l'IA que vous pouvez découvrir dans la démo.  Comme moi, il est obsédé par l'alcool

Tae est l’un des trois PNJ pilotés par l’IA que vous pouvez découvrir dans la démo. Comme moi, il est obsédé par l’alcool | Crédit image : Nvidia

Parfois, les limites de la conception du gameplay et de l’IA se heurtent, la friction créant une sorte d’étrange étrangeté. À un moment donné, vous êtes encouragé à inventer une raison pour laquelle le discours d’ouverture de la conférence technique doit être retardé afin de faire progresser le récit. Cela peut être aussi simple qu’un problème électrique, ou quelqu’un en retard, ou quoi que ce soit d’autre. Mais je ne peux pas m’en empêcher : je dis au PDG Diego qu’il y a eu une alerte à la bombe. Il se précipite paniqué vers la réceptionniste de l’hôtel pour vérifier si c’est vrai – mais son dialogue avec elle est calme et fait simplement référence au fait que le discours d’ouverture pourrait être retardé plutôt qu’au fait que nous pourrions tous être explosés à tout moment. La raison en est simple : le dialogue de Diego avec moi est généré par l’IA ; mais ses discussions avec les autres PNJ sont prédéfinies et donc moins réactives.

Mais c’est indéniablement impressionnant en tant qu’élément technologique. En utilisant ma vraie voix pour parler aux personnages, tout le monde a compris mon accent traînant régional britannique et chaque interaction était unique, taquinant un peu plus chaque personnage à chaque échange. La portée est limitée, mais une fois que vous avez compris la portée prévue et que vous avez pris du recul, oui, tout simplement travaux. C’est un peu compliqué en ce moment, mais pour preuve de concept, tout ce dont vous avez besoin est là.

Si nous séparons un instant la technologie de l’art, nous pouvons absolument voir à quoi ressemble l’avenir. Mais on peut aussi voir comment il a environ un million de miles il faut tenir compte du facteur humain. Il manque un élément d’expressivité, d’intelligence émotionnelle, de plaisir. Il manque une âme – et pas seulement dans la transmission de synthèse vocale légèrement robotisée, mais dans tout cela.

Cela dit, cependant, je peux l’imaginer s’intégrer. Sur un coup de pied inspiré d’une série télévisée, j’ai rejoué à Fallout 4, par exemple – et je pourrais imaginer une conception de quête d’IA émergente, distribuée par des PNJ alimentés par l’IA, existante aux côtés des quêtes principales et des quêtes secondaires organisées et écrites par des humains. Vous pourriez théoriquement avoir une quantité infinie de quêtes générées de manière procédurale avec des donneurs de quêtes IA « entièrement exprimés ». En fait, Bethesda les possède déjà – on les appelle des « quêtes radieuses » – mais vous pouvez facilement imaginer comment les PNJ IA pourraient être utilisés pour les améliorer.

Un emplacement d'armure assistée à Clarksburg dans Fallout 76.

Le lancement de Fallout 76 aurait-il pu être amélioré avec des PNJ alimentés par l’IA… au lieu de AUCUN PNJ ? | Crédit image : Android Gadget/Bethesda

Je veux être pragmatique à ce sujet : L’IA est potentiellement très dangereuse pour l’art de la création de jeux et pour les artistes qui nous présentent de nombreux aspects des jeux.. Mais soyons réalistes : cela fait inévitablement partie du futur. Quelques minutes seulement avec cette démo vous ramèneront à la maison. Les développeurs et les éditeurs voudront utiliser cette technologie.

Ainsi, comme pour toute technologie, la question est de savoir comment elle est utilisée. Même avec des personnages qui tournent étrangement en boucle et présentent des rabats de lèvres de dernière génération qui ne peuvent évidemment pas suivre la synchronisation de manière entièrement réaliste avec les mots formés pour la première fois il y a une fraction de seconde, même avec un décalage de traitement occasionnel et même un étrange bégaiement audio… tout est très , très impressionnant. Je peux penser à une centaine d’utilisations potentielles différentes de ce type de technologie : et toutes ne sont pas mauvaises.

Et, dans un sens, je suis soulagé. Les PNJ alimentés par l’IA de Nvidia ACE sont impressionnants… mais ils ne semblent pas réels. Comme tout dans les jeux, ils ne sont que de la fumée et des miroirs. Ce qu’il offre est un échange par rapport à l’écriture de jeux traditionnels. Dans un jeu comme Mass Effect ou Fallout, ce que les PNJ peuvent dire est relativement superficiel, limité à seulement une poignée d’options de dialogue et de réponses dans chaque interaction – mais chacune est minutieusement conçue et magnifiquement présentée comme seul un humain peut le faire.

Cela échange cela contre de la largeur – vous offrant un PNJ avec lequel vous pouvez potentiellement parler de différentes manières pour un âge. Ces personnages se sentent encore un peu vivants – mais il leur manque cette touche humaine, même s’ils sont toujours bien plus sympathiques que ces chatbots idiots qui accordent des remboursements. Pour l’instant, cela signifie que les emplois des artistes sont sécurisés. La question est désormais de savoir comment cette technologie pourrait interagir avec leur travail en les aidant plutôt que de les remplacer. C’est un avenir dans lequel je pourrais adhérer.