NVIDIA torna a parlare di DLSS 5, ma le nuove informazioni arrivate da alcune risposte dell'azienda pongono nuovi interrogativi rispetto a quanto comunicato in precedenza. Le precisazioni in questione sono arrivate da un confronto diretto con il creator Daniel Owen, che ha chiesto chiarimenti sul funzionamento del modello.
Le risposte fornite da Jacob Freeman, rappresentante dell'azienda, ridimensionano alcune aspettative sulla capacità del sistema di interpretare in profondità le scene di gioco.
Cosa legge davvero il DLSS 5 in una scena 3D
Il punto centrale riguarda gli input utilizzati dal modello. NVIDIA ha confermato che DLSS 5 elabora esclusivamente un frame 2D renderizzato insieme ai vettori di movimento. Questo significa che il sistema non accede direttamente a dati tridimensionali come geometrie, profondità o proprietà dei materiali generate dal motore di gioco.
In precedenza, però, la comunicazione ufficiale aveva suggerito una comprensione più avanzata della scena, includendo elementi come materiali e struttura geometrica. Le nuove dichiarazioni delineano invece un approccio basato sull'analisi dell'immagine finale, da cui il modello deduce caratteristiche come capelli, pelle o illuminazione.
Questo aspetto riguarda anche il rendering fisicamente basato. NVIDIA ha chiarito che DLSS 5 non legge direttamente parametri come proprietà dei metalli, rughe o normal map. Tali informazioni vengono inferite a partire dal frame renderizzato, senza accesso ai dati originali creati dagli sviluppatori.
Alcuni esempi mostrati pubblicamente avevano già alimentato dubbi. In certe immagini, dettagli come capelli o tratti del volto appaiono modificati rispetto all'originale, suggerendo non solo un miglioramento visivo ma una reinterpretazione della scena. NVIDIA sostiene che la geometria sottostante rimane invariata, sottolineando però che si tratta di una versione preliminare della tecnologia.
Un altro punto riguarda il controllo a disposizione degli sviluppatori. Secondo quanto dichiarato, è possibile intervenire su parametri come intensità, contrasto, saturazione e bilanciamento cromatico, oltre a escludere specifiche aree tramite maschere. Tuttavia, non emergono strumenti per correggere in modo puntuale modifiche indesiderate, ad esempio su volti o dettagli specifici.
Questo limite potrebbe incidere sull'aderenza alla direzione artistica originale, soprattutto nei casi in cui il modello introduce variazioni percepibili. L'intervento si limita quindi a regolare o ridurre l'effetto, senza un controllo diretto sul risultato generato. Voi che cosa ne pensate? Diteci la vostra nei commenti qua sotto.