Genere
ND
Lingua
ND
PEGI
ND
Prezzo
ND
Data di uscita
ND

GeForce 6800

Anteprima

GeForce 6800 Ultra - La riscossa di nVidia

Signore e signori, si riparte! L'evoluzione dei vari NV30 e R300 è giunta al termine e si ricomincia con una nuova generazione di chip grafici. Questa volta a cominciare con un leggero vantaggio temporale è nVidia, che con un colpo a sensazione ha presentato la potente GeForce 6800 Ultra. La scommessa è quella di riuscire a tornare sul trono e le premesse sembrano molto buone: analizziamo il chip in dettaglio!

di Antonino Tumeo, pubblicato il

Questo secondo ROP, può anche svolgere le operazioni di scrittura nello Z Buffer e nello Stencil Buffer, ed è proprio per questo motivo che si parla di architettura 16x1/32x0, perché in grado di scrivere fino a sedici pixel o fino a trentadue informazioni nello Stencil o nello Z Buffer nello stesso ciclo di clock.
I ROP costituiscono anche le unità determinanti nell'esecuzione dell'AntiAliasing in MultiSampling: infatti, se ben ricorderete, il vantaggio velocistico nel multisampling sta nel fatto che i campioni a livello subpixel utilizzati per l'interpolazione sono ricavati solo ricalcolando i dati di Z Buffer e tenendo buoni i valori di colore già elaborati. Dunque, se in un solo ciclo di clock sarà possibile ricavare due campioni, per ottenerne un numero superiore si dovrà però procedere a più passaggi. Però, tutte le architetture nVidia, compresa quella del GeForce 6800, non possono eseguire più di un loop, dunque raggiungendo un effettivo AntiAliasing al massimo di tipo 4X in MultiSampling. Tutte le modalità più spinte (6Xs, 8X), richiedono un misto tra MultiSampling e SuperSampling (che comporta anche la scrittura dei dati di colore), e non risultano ugualmente efficaci. Sempre nell'ambito dell'AntiAliasing, comunque, è assolutamente doveroso notare che è stata cambiata la griglia di interpolazione dei campioni: in perfetto stile 3dfx, si è arrivati, finalmente, a utilizzare una griglia ruotata invece che la classica griglia ordinata, soluzione in grado di migliorare visibilmente la qualità del risultato.
Ulteriore caratteristica che non era stata implementata in CineFX, e non richiesta neanche dallo Shader Model 2.0, ma supportata dalle schede ATi, è il MultiTarget Rendering, funzione tramite la quale si può redirigere l'output delle Pixel Pipeline verso quattro diversi frame buffer in modo da permettere, tramite successivo blending dei medesimi, l'effettuazione con una certa semplicità di effetti anche abbastanza complessi.

Da citare, infine, il supporto per Anisotropic Filtering adattivo: adesso con un schema più simile a quello di ATI (dunque in grado di raggiungere, nel mix tra bilineare e trilineare, una modalità fino a 16X, ma con qualche problemino sulle texture con angoli a 45 gradi), benché presente debba in qualche modo essere il supporto per il vecchio filtro ottimizzato con il trilineare, sebbene sembra che gli attuali driver beta non espongano la funzione.

HIGH PRECISION DYNAMIC RANGE

La High Precision Dynamic Range Technology di nVidia non è altro che l'estensione quasi "al completo" della gestione del supporto alla precisione di colore in floating point lungo tutta la pipeline. Infatti, scontato il fatto che gli shader possono operare comodamente in virgola mobile, non altrettanto era finora stato specificato per le texture e, soprattutto, per il frame buffer. Se per lo meno con quella che ormai è la scorsa generazione di schede grafiche è possibile operare in qualche modo su texture con formato di colore in virgola mobile, lo si può fare con un certo numero di limitazioni (prima fra tutte la mancanza di filtraggio) e soprattutto una volta concluse tutte le elaborazioni, al momento di "buttare" i pixel calcolati nel frame buffer, ci si deve risolvere alla classica precisione in "interi". In caso siano necessarie ulteriori passate, dunque, il chip grafico dovrebbe andare a prendere dati che, riconvertiti in interi, hanno perso precisione con un conseguente degrado qualitativo, non più ovviamente recuperabile in caso di successiva elaborazione, seppure in virgola mobile. Se, poi, come comunemente avviene, si cerca di "adattare" un po' di più il metodo di rappresentazione in interi alla capacità percettiva del nostro occhio, per aumentare un poco la qualità, si presentano problemi anche più significativi, legati alla riconversione (molto poco pratica) e ad eventuali operazioni di blending (fusione).

C'è, infatti, da evidenziare il fatto che, soprattutto per sopperire alla mancanza di un frame buffer in grado di supportare ampie dinamiche, finora si è cercato di adottare qualche piccolo escamotage che migliorasse per lo meno un poco la situazione. Valutando il fatto che la capacità percettiva dell'occhio va, per quello che riguarda la luminosità, con un andamento circa logaritmico (ossia, è molto più sensibile a differenze di toni scuri piuttosto che su toni chiari), si è pensato di modificare leggermente il classico formato RGB con 8 bit per componente in maniera tale da dare maggiore rilevanza ai toni scuri. Si è giunti così al formato "standard" sRGB, che offre sì un certo miglioramento qualitativo, permette di gestire i vari passaggi di rendering (che possono essere anche visti come light transport, ossia la fase nella quale si ricavano le informazioni riguardanti la luminosità a partire dai dati geometrici e si calcolano i colori dei pixel, tone mapping, cioè la fase nella quale i colori calcolati vengono salvati nel frame buffer, e gamma e color correction, che mappano lo spazio di colore del buffer di visualizzazione nello spazio dei colori del monitor) ma che risulta piuttosto scomodo da gestire perché 8 bit per componente sono comunque troppo pochi e soprattutto perché i valori in sRGB non sono direttamente sommabili e dunque per eseguire le funzioni di blending richieste dal dynamic lighting è necessario convertirli prima in una forma sommabile e poi salvarli nuovamente in sRGB. Se, quindi, è accettabile usare sRGB per tone mapping (vista la limitata impronta in memoria, quella di una normale immagine a 32 bit) e color & gamma correction, visto che comunque i monitor attuali sono limitati in dinamica, lo stesso non si può dire per la fase di light transport.