DLSS 5: NVIDIA porta l’AI dentro il rendering dei videogiochi | Festina Lente - Notizie, recensioni e approfondimenti sull’intelligenza artificiale | Turtles AI
NVIDIA porta l’AI ancora più in profondità nella grafica dei videogiochi con DLSS 5, un sistema di rendering neurale in tempo reale capace di arricchire pixel, illuminazione e materiali. L’obiettivo è ridurre la distanza visiva tra motori di gioco e cinema digitale.
Punti chiave:
- DLSS 5 introduce un modello di rendering neurale in tempo reale che arricchisce illuminazione e materiali.
- Il sistema usa AI addestrata sulla semantica delle scene per migliorare pelle, tessuti, capelli e superfici.
- Supporto annunciato da numerosi editori, tra cui Bethesda, CAPCOM, Ubisoft e Warner Bros. Games.
- Arrivo previsto nell’autunno 2026, con integrazione tramite framework NVIDIA Streamline.
Nel mondo della grafica videoludica ogni generazione di tecnologie tenta di ridurre la distanza tra ciò che vediamo su uno schermo e ciò che la nostra mente associa alla realtà. Con l’annuncio di NVIDIA DLSS 5, presentato durante il NVIDIA GTC, l’azienda californiana prova a spostare ancora più in là quel confine introducendo una nuova fase del cosiddetto neural rendering: un modello di AI capace di intervenire direttamente sull’immagine finale generata dal motore grafico e arricchirla con illuminazione e materiali fotorealistici. Il risultato non è semplicemente un aumento delle prestazioni, come nelle prime versioni del DLSS, ma un approccio in cui l’AI diventa parte integrante del processo di creazione dell’immagine, lavorando sui pixel per interpretare e migliorare la scena in tempo reale fino alla risoluzione 4K. La tecnologia prende in ingresso i dati prodotti dal gioco, colori, profondità e vettori di movimento, e li passa a una rete neurale addestrata su enormi dataset visivi che riconoscono elementi complessi come capelli, pelle traslucida, tessuti o superfici riflettenti. In questo modo l’algoritmo può aggiungere dettagli sottili, simulare meglio la diffusione della luce sotto la pelle, gestire riflessi e materiali con maggiore precisione e mantenere coerenza tra un fotogramma e l’altro, un aspetto essenziale per il rendering in tempo reale. L’idea nasce da una constatazione semplice ma decisiva: un fotogramma cinematografico creato per effetti speciali può richiedere minuti o ore di calcolo, mentre un videogioco ha appena 16 millisecondi per produrre ogni immagine. Anche con hardware sempre più potente, il divario rimane enorme, e la sola forza bruta non basta più a colmarlo. È qui che entra in gioco l’AI, che negli ultimi anni ha dimostrato di poter generare immagini estremamente realistiche ma spesso in contesti offline o poco controllabili. Nei videogiochi, invece, ogni pixel deve essere deterministico, coerente con il mondo tridimensionale e perfettamente sincronizzato con l’azione del giocatore. DLSS 5 tenta proprio di trovare questo equilibrio: sfruttare la capacità generativa dei modelli AI senza perdere il controllo artistico degli sviluppatori. Non a caso il sistema include strumenti di regolazione molto granulari intensità dell’effetto, gradazione del colore, maschere selettive che permettono ai team di sviluppo di decidere dove e quanto applicare il miglioramento visivo, preservando lo stile originale del gioco. L’integrazione avviene attraverso lo stesso framework Streamline, già utilizzato dalle tecnologie DLSS e da strumenti come NVIDIA Reflex, facilitando l’adozione nei motori grafici esistenti. Dal punto di vista storico, l’annuncio si inserisce in una lunga traiettoria di innovazioni della casa di Santa Clara: dagli shader programmabili introdotti con GeForce 3 nel 2001, al linguaggio di calcolo parallelo CUDA presentato con GeForce 8800 GTX nel 2006, fino al ray tracing in tempo reale reso popolare con GeForce RTX 2080 Ti nel 2018. Nel frattempo la tecnologia DLSS, acronimo di Deep Learning Super Sampling, si è evoluta costantemente: dalle prime versioni dedicate all’upscaling delle immagini fino ai sistemi più recenti di generazione dei fotogrammi basati su AI. Secondo NVIDIA, la tecnologia è ormai integrata in centinaia di giochi e applicazioni, diventando una sorta di standard dell’ecosistema PC gaming. Le versioni più recenti, come DLSS 4.5 presentata al CES 2026, sono già in grado di generare più fotogrammi per ogni frame renderizzato, migliorando fluidità e qualità dell’immagine grazie a modelli transformer di nuova generazione. DLSS 5 rappresenta quindi un ulteriore passo in questa direzione, spostando l’attenzione dalla sola accelerazione delle prestazioni alla trasformazione della qualità visiva stessa. Il progetto è stato sviluppato e annunciato dal fondatore e CEO Jensen Huang, che durante la presentazione ha parlato di una nuova fase per la grafica digitale, in cui il rendering tradizionale e i modelli generativi collaborano all’interno della pipeline grafica. Il supporto dell’industria sembra già ampio: tra gli studi che hanno dichiarato l’intenzione di utilizzare DLSS 5 figurano Bethesda, CAPCOM, Ubisoft, Tencent, NetEase, NCSOFT e Warner Bros. Games, con una lista iniziale di titoli che include produzioni come Starfield, Assassin’s Creed Shadows, Hogwarts Legacy, NARAKA: BLADEPOINT, Phantom Blade Zero e The Elder Scrolls IV: Oblivion Remastered. L’obiettivo dichiarato è offrire agli sviluppatori un nuovo strumento per costruire mondi digitali con livelli di realismo più vicini alle produzioni cinematografiche, pur mantenendo la velocità e la reattività richieste dal gioco interattivo. In prospettiva, questo approccio si inserisce in una tendenza più ampia dell’industria grafica, dove sempre più componenti della pipeline shading, compressione delle texture, illuminazione globale vengono affiancati o sostituiti da modelli neurali addestrati su supercomputer. In fondo non è una sorpresa: noi di Turtle’s AI lo avevamo previsto quasi due anni fa, quando parlavamo di un futuro in cui l’AI non si sarebbe limitata ad aumentare i frame al secondo ma avrebbe iniziato a partecipare direttamente alla costruzione dell’immagine.
E DLSS 5 sembra incarnare proprio questo passaggio: non più solo accelerare ciò che il motore grafico produce, ma reinterpretarlo in tempo reale per renderlo più ricco, più coerente con la luce e i materiali del mondo reale, e più vicino alla grammatica visiva del cinema digitale.


