Stando a tutte le volte in cui Jensen Huang – CEO di NVIDIA – ha ripetuto “graphics reinvented” viene da pensare di essere davvero di fronte a una rivoluzione epocale nel mondo della computer grafica. Al netto di una presentazione dai ritmi altalenanti, è palese l’entusiasmo con cui NVIDIA finalmente afferma di aver trovato “the holy grail of graphics” dopo una ricerca durata quasi 10 anni.

Una ricerca iniziata nel 1968 da Arthur Appel che si basava su una semplice presupposto. Come ottenere un’illuminazione fotorealistica nella grafica 3D? Replicando il comportamento reale della luce. Il raycast fa esattamente questo, simula il comportamento di un raggio proveniente da una fonte (come il sole) calcolando la giusta ombreggiatura. Ineccepibile su carta ma quasi impossibile all’atto pratico, poiché il calcolo va eseguito ad ogni frame e per ogni pixel sullo schermo.

Eppure, sembra che il momento sia finalmente giunto. Siamo di fronte a un cambio così radicale nella normale pipeline di calcolo da portare addirittura all’introduzione di una nuova unità di misura per quantificare la forza bruta della GPU. L’RTX OPS di NVIDIA si prepara a diventare il nuovo benchmark per misurare non solo il raytracing, ma il mix di quest’ultimo insieme a varie tecniche che lavorano in parallelo per garantire il massimo risultato. A questa mole di dati si aggiunge l’uso di un sistema di IA che ha il compito, nel caso in cui il singolo frame non sia stato processato interamente, di completare le informazioni mancanti tramite una rete neurale adeguatamente addestrata.

Basta guardare uno dei vari trailer presentati per rendersi conto dei risultati ottenibili: la quantità e qualità di riflessioni raggiungibili dalla RTX non erano effettivamente realizzabili con gli attuali sistemi di illuminazione. In uno degli esempi mostrati da NVIDIA – quello di Metro Exodus – si può notare chiaramente il processo che porta alla creazione della luce ambientale. Si inizia con una luce diretta, che divide nettamente ciò che è illuminato e ciò che non lo è; un sistema quasi binario privo di qualsiasi sfumatura che, ovviamente, da solo non basta. Vanno quindi aggiunti dei punti luce fittizi pur di ricreare nel modo più fedele una illuminazione uniforme nelle varie zone della scena; in fase di post processing, poi, si usano degli effetti per potenziare questo sistema di luce “innaturale”.

Grazie al raytracing il problema viene quindi risolto alla radice. Nel momento in cui il raggio di luce viene simulato in tempo reale, tutto ciò che prima andava costruito “artificialmente” si ottiene in automatico: riflessione, sfumature, ombre dettagliate… la scena assume un’illuminazione naturale e realistica.

Se siete dei renderisti o lavorate con il 3D avrete avuto un giramento di testa. Quella di cui parliamo è una rivoluzione silenziosa, giocata dietro le quinte dei mondi virtuali che amiamo e che cambia lo status quo dell’environment lighting come lo conosciamo oggi. Cosa succede se possiamo abbattere, o almeno snellire fortemente, quello che è a tutti gli effetti uno dei momenti più ostici di tutto il processo produttivo? Avere meno carico di calcolo totale (paradossalmente la RTX riesce a essere nettamente più veloce delle attuali TitanX, pur eseguendo calcoli estremamente più complicati), così da avere in modo più rapido e veloce ambienti sempre più fotorealistici. Evitare una lunga catena di passaggi per illuminare correttamente una stanza vuol dire prototipare più velocemente. Vuol dire avere meno bug e più flessibilità del dialogo tra sviluppatori e designer. Maggiore flessibilità nell’uso di risorse vuol dire frame rate più stabile, vuol dire 4K nativo, vuol dire avere spazio di manovra per arricchire il software di meccaniche e funzioni che altrimenti non avrebbero trovato spazio. Sostituire un’architettura non vuol dire avere solo un boost di prestazioni, ma sradicare dalla radice un sistema, ormai consolidato, ed entrare in un nuovo mondo le cui possibilità sono ancora tutte da esplorare.

NVIDIA_RTX_Demo
Cosa cambia invece per chi ha appena installato una NVIDIA RTX nuova fiammante sul proprio PC? La risposta più ovvia: scene ancora più fotorealistiche. Illuminazioni e giochi di luci sempre più sofisticati e riflessioni sorprendenti: un boost grafico non da poco, se pensiamo che già i primi trailer mostrano una potenzialità affascinante, che è solo all’inizio di un lungo processo di crescita. La risposta meno ovvia è di come questa tecnologia possa influire attivamente sul gameplay: parliamo di una rivoluzione dalla portata più ampia rispetto ad altre feature “classiche” come il TressFX, se pensiamo ai capelli di Lara Croft simulati realisticamente. Un primo suggerimento viene proprio dal trailer di Battlefield V: la possibilità di avere livelli di riflessione così avanzati potrebbe portare alla creazione di piccole situazioni di gameplay emergente, con la semplice sagoma distorta di un nemico avvistata sullo sportello di una macchina che potrebbe rivelarci la sua posizione in anticipo.

Un momento storico, così l’ha definito Jensen Huang sul palco, che mi sento di condividere. Se sullo schermo una piccola scena con cubi e sfere può sembrare una cosa da poco, dietro la cortina invisibile che separa centinaia di linee di codice dai nostri giochi preferiti c’è un vero e proprio tumulto che scardina lo status quo come lo abbiamo conosciuto negli ultimi 20 anni, rendendolo più snello e performante. Inutile dire che siamo solo all’inizio di questo grande cambiamento, ma da quello che abbiamo visto possiamo affermare che il futuro, questa volta, sembra davvero radioso e illuminato come mai lo è stato nella storia della grafica 3D.