Genere
ND
Lingua
ND
PEGI
ND
Prezzo
459 Euro
Data di uscita
14/8/2002

PNY Verto GeForce 4 Ti 4600

PNY Verto GeForce 4 Ti 4600 Aggiungi alla collezione

Datasheet

Data di uscita
14/8/2002
Giocatori
0
Prezzo
459 Euro

Lati Positivi

  • Molto veloce
  • Due Vertex Shader
  • AntiAliasing efficiente

Lati Negativi

  • Costosa
  • AntiAliasing non alla massima qualità grafica
  • Manca il supporto per Pixel Shader 1.4

Hardware

La PNY Verto GeForce 4 Ti 4600 è stata provata su un Pentium 4 da 1,7 GHz su scheda madre i850 con 256 MB di memoria RAMBUS e HD da 30 GB IBM DTLA, con sistema operativo Windows XP e l'ultima release ufficiale dei driver di reference disponibili, i 29.42. La scheda PNY è stata testata anche con lo stesso hard disk, lo stesso sistema operativo e la stessa versione di driver su una scheda madre i845D con 256 MB di memoria DDR (XMS2400) fornita da Corsair e con un Pentium 4 Northwood da 2,2 GHz.
Recensione

PNY Verto GeForce 4 Ti 4600

Il GeForce 4 Ti 4600 è senza dubbio alcuno l'attuale campione di velocità nell'ambito dei chip grafici, in attesa della nuova generazione in arrivo per fine anno. PNY lo sa bene, visto che presenta questa scheda della sua nuova linea Verto come "The Ultimate Gaming Machine". Approfondiamo dunque l'architettura del chip e vediamo come si comporta la scheda al banco di prova.

di Antonino Tumeo, pubblicato il

LIGHTSPEED MEMORY ARCHITECTURE II: UN PO' DI CALCOLI

Non è una novità che il problema più grosso nel gestire grafica ad alta qualità, con grande complessità geometrica ed effetti speciali spettacolari, sia la banda di memoria a disposizione. Infatti, è notevolissima la quantità di informazioni che un chip grafico deve leggere dai vari buffer che tiene nella memoria locale: i dati di colore di ciascun pixel (alpha, red, green, blue), gli Z-Value (i valori che rappresentano la profondità a cui è posto il pixel nella scena 3D). Basilarmente, la fase di rendering di un pixel, richiede il calcolo di un valore di colore e di uno Z-Value per tale pixel. Per calcolare questo valore, bisogna leggere il valore o i valori di colore da applicare e combinare sul pixel in questione, il valore dell'alpha channel, lo Z-Value iniziale. Una volta che i nuovi valori sono stati calcolati, questi devono a loro volta essere salvati in memoria. Supponendo di utilizzare 32 bit di dati per i colori, e Stencil e Z buffer a 32 bit, posta l'applicazione di una sola texture, abbiamo per ciascun pixel la richiesta di 16 byte di banda (lettura di 32 bit di colore + 32 bit di Z buffer = 64 bit / 8 Byte e scrittura di 32 bit di colore + 32 bit di Z buffer = 64 bit / 8 byte, per un totale appunto di 16 byte).
Bene, ora applichiamo il multitexturing, il texture filtering e consideriamo la scena 3D in tutta la sua profondità... Supponiamo di utilizzare due texture per ciascun pixel e di applicare trilinear filtering. Come sappiamo, il trilinear filtering richiede otto campioni della texture per ciascun pixel. Se le texture sono a 32 bit, siamo già a 4 byte (32 bit) x 2 x 8 = 64 byte per pixel. Poniamo che ci sia, come in tutte le GPU di alto livello, una cache per le texture e supponiamo che di media ci permetta di caricare metà di questi dati (32 byte). Se abbiamo più oggetti sulla scena, cosa normalissima, può accadere che si debba ricalcolare il pixel più volte, perché senza particolari algoritmi la scheda grafica non può accorgersi che un pixel elaborato sarà poi coperto da un altro. Supponiamo che mediamente venga quindi visualizzato a schermo un pixel per ogni 2,5 calcolati. Aggiungiamo ancora l'AntiAliasing, supponiamo 2X, il che significa elaborare ben due campioni per pixel. Svolgiamo infine tutto il calcolo a 1280 x 1024 x 32 bit: risoluzione orizzontale * risoluzione verticale * (rendering + lettura delle texture) * complessità * AntiAliasing = 1280 * 1024 * (16 bytes/pixel + 32 bytes/pixel) * 2,5 * 2 = 315 MB per ciasun frame.
Se vogliamo tutto questo a sessanta frame per secondo ecco che otteniamo una richiesta di banda di 18,9 GB/s solo per il pixel rendering. Salendo di risoluzione e di qualità di AntiAliasing, naturalmente queste richieste crescono e crescono... Ma con un bus di memoria a 128 bit, con le frequenze attuali delle memorie DDR, ci si può attendere al massimo una banda di picco di 10,3 GB/s. E allora come si fa?

LIGHTSPEED MEMORY ARCHITECTURE II: LE SOLUZIONI

Del Crossbar memory controller già sapevamo fin dai tempi del GeForce 3. Quattro controller di memoria indipendenti a 32 bit, in grado di garantire granularità (poiché possono operare su blocchi di dati di 32 bit non correlati tra loro), ma anche accessi burst con tutti i 128 bit a disposizione sul canale e tutte le combinazioni inferiori possibili (64 bit, 96 bit). Naturalmente, trattandosi di controller in grado di pilotare memorie DDR, il bitrate effettivo è doppio (in quanto vengono trasferiti due bit per ciclo di clock per ciascuna linea di bus). Novità nell'architettura GeForce 4 sono invece le Quad Cache: quattro piccoli buffer indipendenti che agiscono da cache per la GPU sia in lettura che in scrittura dalla memoria, ottimizzati per ciascun tipo di dato con cui hanno a che fare (primitive, vertici, texture, informazioni di pixel). Naturalmente, esattamente come cache, se i dati richiesti dalla GPU sono presenti al loro interno, vengono letti da lì piuttosto che dalla memoria video, ottimizzando (poiché nettamente più veloci) enormemente le prestazioni.
Altri accorgimenti per migliorare la banda di memoria disponibile possono essere adottati sullo Z-Buffer, la zona di memoria dove vengono conservati gli Z-Value (informazioni di profondità) di ogni pixel che elaborano. Il traffico, da e per questo pixel, come si può ben capire, visto che potenzialmente ci sono dati relativi a tutti i pixel elaborati, è molto elevato, tanto da risultare uno dei più imponenti consumatori di banda di memoria. Dunque, applicare una forma di compressione per questi dati quando vengono trasferiti non sarebbe una cattiva idea, e infatti così viene fatto, sia dai chip nVidia a partire dal GeForce 3, sia dai chip ATi a partire dal Radeon. Anche il GeForce 4 naturalmente beneficia di questo accorgimento e presenta un sistema di compressione e decompressione dello Z-Buffer in hardware con un rapporto di 4:1, completamente trasparente alle applicazioni e virtualmente senza perdite di qualità e precisione dei dati. Un accorgimento invece più intelligente, sempre sullo Z-Buffer, è lo Z-Occlusion Culling. Come abbiamo evidenziato, spesso e volentieri in una scena 3D ci sono oggetti coperti da altri oggetti, ma la scheda video non è a conoscenza che i pixel degli oggetti coperti non ci saranno poi visibili e dunque li elabora lo stesso. Lo Z-Occlusion Culling è per l'appunto il sistema che permette al chip di determinare, in base ai valori di profondità dello Z-Buffer, se un determinato pixel sarà visibile o no, e se non lo sarà, di scartarlo e non farlo passare per la fase di rendering, salvando fill rate e tutta la banda necessaria per le varie operazioni. Estensione di questo concetto sono le Occlusion Query, le richieste che un'applicazione può fare al chip grafico per stabilire se una determinata regione sarà visualizzabile o no. Se la GPU stabilisce che tale regione risulterà occlusa, tutta la geometria che la rappresenta sarà "scartata" e il rendering necessario a visualizzarla sarà evitato.
Approccio di "forza bruta" è, invece, l'utilizzo del cosiddetto "Fast Z Clear", particolare funzione che consente di "resettare" lo Z-Buffer, pulendolo dai vecchi dati (scrivendo 0 in tutte le locazioni) per passare ad una nuova fase di rendering, in maniera automatizzata, senza spreco di banda di memoria e molto velocemente. E' molto importante che lo Z-Buffer venga ripulito con precisione e con velocità, perché, essendo per l'appunto i valori in esso contenuti utilizzati per determinare la visibilità dei pixel, si potrebbero poi avere problemi come l'apparizione di artefatti, immagini "rovinate" o altre cose poco belle a vedersi. Z Compression, Z Occlusion Culling e Fast Z Clear, erano comunque già soluzioni utilizzate anche con il GeForce 3, sebbene naturalmente con il GeForce 4 tali tecnologie siano state ulteriormente limate. Novità della LightSpeed Memory Architecture II è invece l'Auto Pre-Charge, ed è un accorgimento studiato per risolvere alcuni problemi congeniti con la classica organizzazione "matriciale" e a banchi delle memorie RAM. Infatti, al giorno d'oggi, come dovreste sapere, le memorie sono organizzate in banchi a loro volta sezionate in righe e colonne. Il problema è che la GPU, può accedere immediatamente solo alla colonna e alla riga corrente del banco attivo e se invece si vuole leggere scrivere o leggere in un'altra area, diventa necessario chiudere il banco attivo e attivare l'altro banco con le impostazioni di riga e colonna e corrette. Tale processo, può richiedere fino a dieci cicli di clock della RAM, una penalità che si deve pagare ogniqualvolta sia necessario cambiare sia riga che colonna, perché il banco deve essere "pre-caricato" dopo che viene chiuso e prima di essere riattivato. Dunque, in queste situazioni, la GPU va in stallo, dovendo aspettare che la memoria fornisca i dati, o che essa stessa possa scrivere i suoi dati nella memoria, per poter poi proseguire con il lavoro. Il GeForce 4, però, può fortunatamente dire alla memoria di "pre-caricare" in anticipo determinate aree non ancora utilizzate, ma che algoritmicamente può stimare che vengano utilizzate entro breve termine, con l'ovvio vantaggio che, se diviene effettivamente necessario accedere a queste zone, si dovrà passare solo per la fase di attivazione (che richiede, a seconda della qualità della memoria, da 2 a 3 cicli di clock) evitando la fase di pre-caricamento. Sicchè la GPU si trova a perdere meno tempo per aspettare che la memoria sia pronta e di conseguenza può adoperarne di più per procedere nel suo lavoro, macinare pixel su pixel... Dunque, anche sotto l'aspetto controller di memoria, non rivoluzione, ma evoluzione rispetto alla GeForce 3.

Voto None stelle su 5
Voto dei lettori
Una scheda molto veloce la PNY Verto GeForce 4 Ti4600, come del resto ci si poteva aspettare da un prodotto che monta l'ultimo chip grafico nVidia, in attesa dei prossimi futuri Radeon 9700 e NV30. Con i suoi 300 MHz e i due Vertex Shader, questa GPU, accompagnata dai 128 MB di memoria DDR a 650 MHz, rappresenta attualmente uno dei prodotti più potenti sul mercato e per chi vuole il massimo rappresenta certamente l'attuale scelta ottimale. Certo, chi decide per l'acquisto deve comunque essere ben consapevole di andare a spendere cifre non propriamente "basse" per un prodotto che comunque, volenti o nolenti, a causa dei frenetici cicli di questo mercato, perderà come sempre succede in pochi mesi la leadership acquisita. Ma in cambio, oltre alla soddisfazione di avere un prodotto estremamente veloce (e attualmente il più veloce), chi la acquisterà avrà comunque l'importantissima garanzia di poter giocare a ottimi livelli per tre anni buoni dopo la spesa, senza dubbio l'aspetto di gran lunga più importante per chi compra un prodotto di questo livello.