SpecialiTechVideogiochi

Esclusiva – Gamers.it presso Nvidia Italia

 

Per tutti coloro che, come il sottoscritto, seguono il panorama videoludico su PC sin dagli albori e quindi dai tempi dei primi Intel 286/386 e poco dopo con i PC basati su CPU Pentium, non possono non conoscere il gigante californiano NVIDIA.

 

Un pò di storia:

Personalmente ho seguito fin dall’inizio con grandissimo interesse la storia e lo sviluppo dell’azienda, a partire dalla mia prima scheda video: una Nvidia Nv1. Tale scheda, rilasciata nel 1995 ad appena 2 anni dalla fondazione dell’azienda, fu uno dei primi acceleratori 2d/3d tutto in uno e una delle prime schede a supportare le DirectX 3D Microsoft fin dalla loro nascita. Ma fu con le Riva 128 e la TNT (1997-98) che NVIDIA si impose definitivamente nel mercato del PC gaming come vera alternativa all’azienda dominante al tempo: la 3DFX con i suoi acceleratori grafici Voodoo (che dovevano essere affiancate alle schede video 2d). Con effetti grafici e la potenza sempre crescente delle GPU NVIDIA “all in one” (fornivano accelerazione 3D/2D ed entrate video), 3DFX, Matrox e gli altri competitors non riuscirono a tenere il passo, bisognerà attendere il 1999 quando apparivano le prime schede video performanti  di ATI (Attuale AMD). Il 2000 segnò un’ulteriore svolta per Nvidia: il lancio della fortunatissima serie GeForce (brand tutt’ora utilizzato per le odierne GPU) e l’acquisizione del suo diretto concorrente, 3DFX, da cui eredita alcune tecnologie quali lo SLI (utilizzo in parallelo di 2 o più schede video per aumentare esponenzialmente le prestazioni nei giochi).

 

Oggi

Al giorno d’oggi NVIDIA ha ancora un ruolo leader nel mercato delle schede video dedicate: un market share del 62% contro circa il 38% di ATI (dati del 2013) e la differenziazione dell’azienda in mercati quali il mobile (i chip Tegra), portable (progetto Shield), professional (la serie Quadro/Tesla), è veramente notevole, come notevole è anche l’enorme set di features di cui sono dotate le odierne GPU di questo brand: basti pensare al CUDA, Physics, Nvision, TXAA, SLI eccetera.

 

Panoramica presso NVIDIA Italia

Siamo quindi molto onorati di essere stati accolti negli uffici di NVIDIA Italia a Milano per poter toccare con mano i nuovi prodotti NVIDIA nei vari settori di mercato. Vista l’enorme mole di informazioni da condividere con i nostri lettori abbiamo deciso di trattare singolarmente i vari argomenti, che verranno di volta in volta pubblicati in differenti articoli. In particolare in questa sede, ci occuperemo di: 4K gaming, 3D Vision e G-SYNC. A seguire tratteremo anche: laptop gaming con la recensione di un’anteprima italiana (un Laptop MSI dotato di GPU 860M), NVIDIA in ambito mobile, NVIDIA Shield ed un’intervista esclusiva di Gamers.it al PR Manager italiano: Luciano Ballerano.

 

4K Gaming

4k_gaming

Appena entrati nei verdi uffici di NVIDIA, Luciano ci ha gentilmente accolto in una stanza che potrebbe essere definita un “parco giochi NVIDIA”. L’occhio ci è immediatamente caduto su un enorme TV 4K da 65″ Toshiba (modello 65L9363DG), su cui girava Watch Dogs a risoluzione nativa! Il gioco girava su una singola scheda GTX 780 Ti (all’interno di un bel case Barebone custom NVIDIA) senza la minima incertezza, ovviamente l’antialising era stato disabilitato in quanto abbastanza inutile a queste risoluzioni (4096×2160). Per ulteriori dettagli più sotto troverete una foto delle impostazioni grafiche nella galleria. Abbiamo poi provato anche Call of Duty: Ghost e pure in questo caso, i dettagli grafici erano stupefacenti: anche avvicinando il naso allo schermo, non abbiamo notato la benché minima imperfezione o scalettatura nelle texture quindi, vedere il tutto girare su una scheda singola (senza bisogno di SLI), non può far altro che far gola a molti gamers. Sicuramente è ancora presto parlare di Gaming a 4K, almeno finché non migliorerà l’offerta di TV o monitor 4K, seguito soprattutto da una forte riduzione dei costi d’acquisto per noi utenti finali.

 

NVIDIA 3D Vision

3d_vision

A molti di voi il 3D Vision apparirà come una notizia ormai vecchia e sepolta, difatti Nvidia annunciò il 3D Vision nel 2009 in occasione del CES di Las Vegas. Abbiamo però voluto comunque riportare le nostre impressioni da un punto di vista prettamente “gamer”. Personalmente sono un po’ perplesso sulle tecnologie 3d in ambito “Home”, mentre credo abbia una certa utilità solo in alcuni tipi di cinema quali l’IMAX. Provando però Batman Arkham Origins con NVIDIA 3D Vision e monitor da 27″ 3D marcato Asus (modello VG278H), mi sono dovuto ricredere. Non appena attivato il 3d ed accesi gli occhiali attivi NVIDIA, tutte le ambientazioni del gioco  hanno immediatamente “preso vita” regalandoci diversi livelli di profondità che effettivamente colpiscono anche occhi “abituati” al 3D. Fermo restando che il 3D Vision può essere applicato fin da subito a qualsiasi gioco, sicuramente il livello di profondità ed effetto 3D offerto varia da gioco a gioco e sul sito di Nvidia possiamo trovare tutti i totoli che possono beneficiare in modalità nativa di questa funzionalità. Noi abbiamo constatato “l’eccellenza” appunto in Batman, ma non abbiamo problemi nel dire che anche altri giochi quali Assetto Corsa e Skyrim regalano un’esperienza assolutamente realistica e coinvolgente. L’utilizzo benchè minimo, che abbiamo fatto, non ci ha provocato il benchè minimo senso di nausea o fastidio, anche grazie alla potenza del PC su cui abbiamo provato l’Nvision: si trattava di un sistema con 2 schede GTX 780Ti in configurazione SLI, affiancate ad un monitor Asus da 120Hz. Difatti ricordiamo che, per beneficiare del 3D Vision, oltre agli occhialini 3D attivi di NVIDIA, abbiamo bisogno di un monitor 3D da almeno 120Hz di frequenza.

 

G-SYNC

gsync_logo

L’ultimo prodotto NVIDIA di cui vogliamo parlarvi oggi, è costituito dal G-SYNC. Si tratta di una tecnologia abbastanza recente, annunciata da NVIDIA lo scorso Ottobre e che si propone di eliminare una volta per tutte, i problemi legati alla sincronia verticale quali Stutter, Lag e Tearing. Nvidia aveva già parzialmente risolto questi problemi con l’introduzione nei drivers dell’ adaptive vertical sync annunciato nel 2012. L’adaptive VSync è un’opzione intelligente del V-Sync attivo che ha due obiettivi, eliminare il tearing o gli stuttering improvvisi e la perdita di frame al secondo. Quindi una tecnologia che garantisce i PRO dei 2 metodi VSync (on/off) ed elimina i CONTRO del VSync off. Purtroppo questo metodo non ha eliminato il problema dell’input lag (praticamente il delay tra il movimento del mouse e ciò che viene renderizzato su schermo), costringendo Nvidia a trovare una nuova soluzione: G-SYNC appunto. Questa tecnologia richiede un apposito modulo nel monitor e permette di sincronizzare quest’ultimo con l’output della GPU, piuttosto che sincronizzare la GPU con il monitor, rendendo l’esperienza di gaming molto più fluida ed esente dai problemi precedentemente elencati. Il mondo del PC gaming rispose in modo entusiasmante all’annuncio di questa tecnologia, secondo Carmack (noto creatore di Wolfenstein 3d, Doom, Quake) “il G-SYNC costituisce un’introduzione fondamentale, perché sarà subito disponibile per tutti i giochi e consentirà di giocare sempre a 60fps e nella sua semplicità, il G-SYNC può rivoluzionare veramente il mondo del gaming”.

Luciano ci mostra una demo tecnologica con un pendolo che va avanti e indietro, su PC dotato di una GeForce GTX 770 singola e monitor Asus 3D 24″ 144Hz (modello VG248QE) con modulo G-SYNC integrato. La demo viene scalata in tempo reale da 60 a 40 fps. Con G-Sync attivato, abbiamo potuto immediatamente notare come l’effetto tearing risultasse nettamente ridotto, senza distinguere differenze tra la modalità 60 e quella a 40 fps. Senza effetto attivato, invece, scendendo nel frame rate il numero di imperfezioni nell’immagine e il tearing aumentano esponenzialmente. Qui di seguito trovate due video girati con G-SYNC attivo su Skyrim.

Vi rimando quindi al prossimo articolo con NVIDIA e Gamers.it.

 

 

 

Previous post

Steam: Affare di Metà Settimana

Next post

Nuovi Screenshots di Mirror's Edge

Tony Bulsara

Tony Bulsara

No Comment

Rispondi