12.1.1.7 : Rendu 3d, production et travail collaboratif

À toutes les personnes qui ont probablement haussé un sourcil en voyant cette section dans le sommaire : rappellez-vous que dans les années 90, quand Pixar a inventer les shaders, des chercheurs ont réussit à détourner le rendu pour faire du calcul scientifique. Ça a été le début du GPGPU. Donc, voyez plutôt le potentiel de ce qui est en train de se faire (pas chez nous pour le moment, mais ça viendra).
  • Path Tracing of Massive Scenes in Blender on Multi-GPU Systems [S31505]
    • Les perfs de rendu sont bien meilleures avec des cartes RTX, comparée au V100 ou A100
  • Interactive volumes with NanoVDB in Blender Cycles [D3107]
    • On fait du VDB (format pour les volumes) sur GPU
  • Plumbing the Metaverse with USD
    • Universal Scene Description : ils l'ont fait pour avoir un standard qui leur convient (c'est de bonne guerre)
    • Hydra : le moteur de rendu de base de USD
    • On peut synchroniser plusieurs USD juste en envoyant les modifications (comme git)
    • Permet aux entreprises d'énchanger des données entre elles (je vous épargne le cirage de pompes)
    • Les positions des vertices des meshes sont en float (donc ok pour les films). Mais pas encore en double pour faire des simulations
    • USD est composé de nodes (Domaines (Physics, Fluid, etc), Meshes ), attributes, relations
    • On peut tout étendre, sauf le set de composition
    • Les plugins (enfin les extensions) ne fonctionneront pas sur Mac car il n'autorise pas leur exécution (mais je m'en fou)
    • Mais il ne faut pas que les vendeurs fassent des extentions privées qui casseront la compatibilité (et je suis d'accord, mais malheureusement ça arrivera quand même)
    • Super anecdote : un type demande à une entreprise de scanner une partie, 10m x 10m, d'un forêt en Écosse avec une précision de 1 mm. Ils l'ont fait, mais sur toute la forêt. Du coup il s'est retrouver avec un fichier de 190Go. Il a mis un mois pour pouvoir l'ouvrir.
    • C'est probablement une connerie, mais Autodesk annoncent qu'ils vont faire du open-source
    • Comme l'a très bien dit (je ne sais pas comment elle s'appelle) : It's capitalism after all ! USD donne un paradigme pour permettre aux entreprises d'échanger entre elles (même si il y en à certaines qui ne vont absolument pas jouer le jeu)
    • On peut travailler en parallèle (sans utiliser cette saloperie de svn)
    • C'est comme du HDF5, on peut loader ce que l'on veut. Et on a tout l'historique des étapes qui ont servit pour arriver à cette étape
    • Comme USD est un graphe qui décrit une scène on peut le mettre dans une base de données
    • USD peut automatiquement filter différents niveau de détails, suivant ce que l'on demande (niveaux de détail sur les fenêtres d'un immeuble, avec un certain type de polygon)
    • Le délire de Rockstar qui échange New-York avec le Paris de Ubisoft est très rigolo. Ça peut être une super opportunité. Ces villes existent, ce qui compte maintenant c'est expérience que l'on apporte.
    • C'est une convergence ou une collision, mais ça va se faire
    • À la base, USD était pour régler les problèmes de Pixar et de l'industrie du Cinéma, mais en fait, ça sert tout le monde tellement c'est générique
  • Blender USD Import and Rendering [S31984] 42min
    • BlackBird : un futur render open source pour USD (dans blender)
    • Ils ont réussit à importer le Marble Scene dans Blender
    • Un mesh peut être droitier ou gaucher et je ne sais pas ce que ça veut dire (c'est l'orientation du mesh)
    • Il y a un Omniverse drive dans Blender
    • Ils vont ajouter l'Universal Material Mapping (UMM) dans Blender
    • Il vont aussi ajouter UsdSkel, UsDlayer, UsdPayload
  • What's New in OptiX [S31736] 55min
    • Temporal deoising, curves, Instance queries, New SDK, NSight Support
    • Asynchrone et paralléle loading
    • La A6000 défonce tout le monde (les RTX, GV100 et GP100), en même temps elle a des accélérations spécifiques (pour le motion blur par exemple)
    • OPTIX 7.3 : Backface Culling, Blur (for Ampere)
    • Quibic, Quadratic intersector speed up de $20$ à $80\%$
    • On peut intégrer Optic avec NanoVDB
    • On peut compiler un module dans un thread différent et arrêter sa compilation à la volée et la redémarer dès que l'on est prèt
    • Ils vont optimiser le backend du compilateur et améliorer le déboggage
    • On peut loader des textures de qualité cinématigraphique
    • Il y a des tiles et elle sont parallélisées (et peuvent être sparse, enfin multirésolution quoi), avec plusieurs passes
    • Round-robin rendu avec plusieurs streams pour garantir que le GPU est utilisé
  • In-Camera VFX and Virtual Production Executive Panel
    • Mix entre NVidia et Unreal Engine
    • Performance capture (dans les jeux vidéo tout est virtuel), on ne capture pas des images mais des données, on peut ajuster les mouvements des acteurs après coup
    • Ça à commencé avec des LEDs pour éclairer les acteurs (pour simuler le décort)
    • Le problème des écrans verts (problème d'éclairage des acteurs), abstrait pour les réalisateurs
    • Pour la première fois on a des réndus photoréalistes en temps réel
    • Ils ont fait mieux que les murs LEDs pour le Mandalorian
    • Il faut pouvoir changer l'éclairage le plus rapidement possible
    • Ils ont un système pour éditer la scène en direct avec un oculus rift
    • Les panneaux de LEDs ne sont pas bons pour éclairer la peau de manière naturelle. Ils n'ont pas été prévu pour éclairer au départ mais ça commence à être bien
  • Sharing Physically Based Materials Between Renderers with MDL [S31207] 1h
    • MDL : Material Definition Language
    • Désigned pour des performances élevées
    • Génération de matériaux procéduraux, anisotropie (malachite), poils, cheveux
    • Procudural langage de programmation et langage de matériaux déclaratif
    • Pas de prise en compte de la position de la caméra
    • Bidirectional Scatering Distribution Functions => BSDF