Unreal Engine, IA, C++ : les 10 avancés techniques des jeux vidéos

Posté le 30 janvier 2024 par PierreB

En France, le marché du jeu vidéo est gigantesque avec près de 5,5 milliards d’euros en 2021. Il est le premier marché culturel devant le cinéma et le livre avec 37,4 millions de joueurs de 10 ans et plus. Chaque année, des constructeurs tels que Nvidia ou AMD propose des cartes graphiques toujours plus puissantes (augmentation des circuits, des transistors…) pour répondre aux nouvelles exigences des joueurs. Le défi est inchangé : avoir une résolution de jeu toujours plus haute tout en ayant une performance maximale en termes d’images par seconde. Si l’informatique quantique promet une révolution indiscutable dans le gaming, des technologies prometteuses sont déjà présentes pour booster l’expérience de jeu.

Unreal Engine 5, l'incontournable outil de création 3D en plein essor

Développé par Epic Games, Unreal Engine est un puissant moteur de jeu. Il est probablement l’une des plateformes de développement les plus connues dans  l’univers du jeu vidéo, de la réalité virtuelle et augmentée. La particularité d’Unreal Engine 5 est l’association des graphismes haut de gamme à des capacités d’éclairage, d’animation, et des mouvements pointus.

Unreal Engine offre une représentation graphique hors norme et solutionne les développements longs de certains domaines du jeu, comme l’éclairage, les VFX, la simulation de particules et les détails de chaque objet. Reposant sur le langage C++, Unreal Engine est également largement adopté pour son framework de jeu multijoueur, et pour ses graphiques photoréalistes utilisés dans les jeux AAA (classification des jeux vidéos dotés des budgets de développement et de promotion les plus élevés). Unreal Engine possède de nombreux plug-ins qui promettent des évolutions bluffantes dans l’expérience de jeu.

La simulation de l’eau avec Flux Fluid 2.0

Flux Fluid permet de simuler en temps réel des fluides comme l’eau. Le rendu est incroyable sur des champs d’application tels que : les plages, rivières, cascades, courants marins, etc. Ce genre de simulation est en temps normal très complexe à réaliser. Sur la démo ci-dessous, on constate que le réalisme est saisissant. Le plug-in offre la possibilité aux développeurs de modifier la profondeur de champ et de proposer différents types d’eau (eau sale, marécageuse). Un niveau de réalisme incroyable pour les scènes aquatiques des jeux vidéos.

La génération procédurale avec UE 5.2

La génération procédurale (Procedural Content Generation) permet de créer des environnements ultraréalistes générés automatiquement par le système. Rien d’impressionnant sur le papier, mais pourtant cette technologie permet aux développeurs de réduire énormément le temps de conception des jeux.

Créer chaque parcelle de terrain à la main est une tâche très complexe et fastidieuse. Avec la PCG, c’est de l’histoire ancienne : en un claquement de doigts, on peut créer un environnement réaliste pour son jeu vidéo. Apparu dans la version 5.2 d’Unreal Engine, les studios de jeux vidéos peuvent alors définir les critères de bases du monde qu’il désirent créer et le système va générer automatiquement en temps réel le résultat. Les développeurs pourront alors modifier et ajuster le résultat si certains paramètres générés ne sont pas à leur gout.

FluidNinja et l’avancée de la technologie volumétrique dans les jeux vidéos

Les éléments tels que l’herbe, le feu, la poussière, les particules sont complexes à programmer dans un jeu vidéo. Lorsqu’un joueur interagit avec ces éléments, le mouvement censé être représenté demande un effort de code, mais également un effort de calcul graphique.

Avec le plug-in UE Fluidninja, l’interaction avec l’environnement est optimisée et particulièrement réaliste. Couplé avec l’intelligence artificielle cette technologie devrait connaitre de beaux jours devant elle, même si elle est encore bridée par les cartes graphiques actuelles. La technologie volumétrique devrait donc rapidement se démocratiser.

Nanite et la gestion dynamique de la qualité des objets

Chaque objet dans un jeu présente plusieurs niveaux de représentations (Level of Details) pour s’afficher correctement en fonction des caractéristiques techniques du matériel du joueur. Un objet va donc s’afficher et apparaitre en SD, en HD, ou en UHD suivant les performances et la distance.

Cette représentation doit être normalement codée à la main et pour chaque niveau de détail d’un objet, ce qui représente un travail monstrueux. Avec Nanite, un autre plug-in d’Unreal Engine, on peut désormais régler toutes ses problématiques automatiquement et de manière totalement fluide. Créer des environnements bluffants sans pêcher sur les performances est désormais une réalité. Le réalisme des jeux et les performances fps ne feront bientôt qu’un.

DLSS et FSR

Déjà accessibles sur certains jeux et cartes graphiques, les technologies DLSS (Deep Learning Super Sampling) de Nvidia et FSR (Fidelityfx Super Resolution) d’AMD utilisent l’intelligence artificielle pour améliorer les performances en utilisant moins de ressources matérielles. Sans rentrer dans les détails ultratechniques, ces technologies libèrent du calcul graphique du GPU en affichant une image à une résolution inférieure et utilisent simultanément l’IA pour mettre à l’échelle cette même image à une résolution supérieure (technique d’upscaling). Des technologies qui vont évoluer dans les années à venir.

Plusieurs jeux possèdent des environnements entièrement conçus à partir de la technologie de rendus photoréaliste. Cela consiste à utiliser une photo en très haute résolution pour la transformer ensuite en 3D afin de l’utiliser dans les jeux comme décor.

Également appelé photogrammétrie, le procédé consiste à prendre des images superposées d’un objet cible sous plusieurs angles. Par identification des mêmes points sur ces photographies, il est possible d’obtenir leurs coordonnées et de les trianguler dans un espace 3D. Cette technologie est très utilisée dans les jeux vidéos pour capturer et ajouter des accessoires, des lieux et des visages d’acteurs dans les jeux.

Les dialogues générés par IA pour les PNJ

Nvidia a récemment dévoilé une technologie basée sur l’intelligence artificielle, Nemo, et Riva permettant de discuter en temps réel avec un personnage non jouable. Appelé Nvidia Avatar Cloud Engine, cette API cloud permet un comportement réaliste des PNJ et une reconnaissance automatique de la parole. Dévoilé au CES de Las Vegas, le ACE permet d’interagir avec les PNJ comme on le ferait dans la vraie vie. Plus d’immersion seront donc au rendez-vous et nous en aurons bientôt fini avec les dialogues préscénarisés des PNJ.

MetaHuman Creator

MetaHuman Creator est un framework d’Epic Games permettant de créer des personnages ultraréalistes et entièrement customisable en un claquement de doigts. Totalement gratuit, cet outil permet désormais à des petits studios indépendants d’incorporer un module de création de personnages avec des expressions faciales bluffantes sans y consacrer un budget colossal derrière.

Sony et l’ajustement dynamique de la difficulté dans les jeux vidéos

Une nouveauté est actuellement à l’étude du côté de Sony : la perception de la difficulté adaptative. Il s’agirait d’adapter la difficulté du jeu automatiquement en fonction du profil et du comportement du joueur. Ainsi, d’autres paramètres de jeu tels que la vitesse, le niveau des ennemies ou encore le nombre d’adversaires pourraient évoluer automatiquement en fonction de la progression. Le brevet déposé par la marque repose donc sur un calibrage automatique de la difficulté en fonction des compétences du joueur.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *