GeForce RTX: 2080Ti, 2080 e 2070 le nuove schede di NVIDIA!

(Bari)ore 19:13:00 del 26/08/2018 - Tipologia: , Tecnologia

GeForce RTX: 2080Ti, 2080 e 2070 le nuove schede di NVIDIA!

Debutto da settembre per le nuove generazioni di schede video NVIDIA destinate ai videogiocatori, basate su architettura Turing.

In occasione del Gamescom il CEO di NVIDIA Jen-Hsun "Jensen" Huang ha rivelato la tanto attesa serie di schede video GeForce 20, che come principale caratteristica comprende, essendo basata su architettura Turing, l'implementazione in hardware del Ray Tracing. NVIDIA ha parlato nel corso dell'evento di una serie di novità interessanti, come i Giga Rays, di cui parleremo nel dettaglio più avanti nell'articolo.

Ray Tracing è talmente importante da indurre NVIDIA a cambiare la sigla che segue il nome GeForce, che tradizionalmente è stata GTX. Abbiamo, dunque, GeForce RTX 2080 con 23 Turing SM e 2944 CUDA core, in opposizione a RTX 2070 con 18 Turing SM e 2304 CUDA core. Una caratteristica molto interessante, in contraddizione con quanto era trapelato in sede di rumor, è che la RTX 2070 monterà 8 GB di memoria veloce GDDR6 invece di 7 GB. La più potente è GeForce RTX 2080Ti con 4352 Cuda Core, 11 GB di memoria GDDR6 e bandwidth memoria di 616 GB/s. Il bus memoria è di 352-bit e la velocità di quest'ultima di 14 Gbps. La GPU opera di base a 1350 MHz e a 1635 Mhz in overclock.

Per le 3 schede RTX NVIDIA indica due differenti valori di boost clock: il dato delle schede Founders Edition è indicato come (OC) ed è leggermente superiore a quello delle schede reference sviluppate dai partner, non basate sul Founders Edition design. Le nuove schede Founders Edition sono tutte dotate di sistema di raffreddamento a doppia ventola; notiamo inoltre come siano aumentati i requisiti di alimentazione, con la scheda RTX 2080Ti che richiede due connettori a 8 pin e quella RTX 2080 che passa a un connettore a 8 pin affiancato da uno a 6 pin.

Con riferimento ai prezzi, segnaliamo come NVIDIA abbia indicato nel corso della presentazione prezzi a partire da 499 dollari USA per le schede GeForce RTX 2070, da 699 dollari per quelle GeForce RTX 2080 e da 999 dollari per i modelli GeForce RTX 2080Ti. I listini indicati nella tabella si riferiscono alle schede Founders Edition vendute sul sito NVIDIA, con listini in dollari USA così come indicati sul sito americano dell'azienda (si tratta di prezzi tasse locali escluse), e con i prezzi in Euro praticati da NVIDIA sul proprio sito italiano (in questo caso sono prezzi IVA inclusa). 

Tutti questi cambiamenti si sono resi necessari per comunicare un intero cambiamento di paradigma per NVIDIA, che pone adesso al centro dell'attenzione Ray Tracing e le reti neurali per l'intelligenza articiale. Parliamo dunque di una complessità maggiore a livello architetturale, con il die delle schede video che deve essere in grado di accogliere RT e Tensor Core per processare in hardware queste istanze. NVIDIA può propendere per un ingrandimento dei die o contenere in questa fase di lancio il numero di RT e Tensor Core, ovviamente rinunciando a parte delle prestazioni.

Con Turing, inoltre, NVIDIA passa al processo costruttivo a 12 nanometri, anche se non si tratta della trasposizione della piena complessità di un pieno nodo di elaborazione così come è configurato all'interno del processo a 16 nanometri di Pascal. Questo vuol dire che con la prima famiglia di schede video per Ray Tracing e reti neurali NVIDIA non sfrutta il pieno potenziale al livello di densità di costruzione.

Il Ray Tracing, in particolare, è sempre apparso come il punto di approdo per il rendering della grafica in tempo reale, impossibile da praticare per la complessità intrinseca della tecnica e per l'insufficiente capacità di elaborazione dell'hardware. NVIDIA, in maniera enfatica con la prima parte dell'evento che ha ripercorso l'evoluzione della grafica, adesso intende sfondare questa barriera.

La tecnica di raytracing, infatti, proietta i raggi di luce dal punto di osservazione agli oggetti; i raggi poi rimbalzano dagli oggetti al resto della scena, determinando in ultima analisi le interazioni tra le fonti di luce e gli oggetti in un modo realistico. L'algoritmo segue il percorso tracciato da ogni singolo raggio al fine di determinare il colore del pixel su cui è proiettato. Se la destinazione è considerabile come destinazione finale il processo si interrompe, in caso contrario viene gestito il conseguente effetto di riflessione o rifrazione. Rispetto alle tecniche tradizionali di rasterizzazione, si parte quindi dal punto di osservazione, mentre fino a oggi l'illuminazione viene gestita a partire dalla fonte di illuminazione nella scena virtuale. Ne abbiamo parlato diffusamente qui, nel momento dell'annuncio di Microsoft DirectX RayTracing.

In quell'occasione NVIDIA, in collaborazione con Epic Games, aveva mostrato la spettacolare demo di Star Wars e del Capitano Phasma realizzata con rendering basato sulla fisica dei materiali, soft shadow e illuminazione realistica con Ray Tracing, il tutto in tempo reale. In questa scena non si trova alcun elemento grafico "pre-confezionato" o effetti di eventuali artifici o scorciatoie nell'elaborazione: tutto è gestito rigorosamente in maniera dinamica.

Al GDC di quest'anno quella demo girava su un PC con quattro schede video professionali V100 all'interno di un sistema DGX da 68 mila dollari. "Quindi abbiamo cominciato a ragionare in questi termini" ha detto Jensen durante l'evento, in maniera ovviamente sarcastica. "Come possiamo trasformare tutto questo in una console per videogiochi? In fondo basterebbero 3 mila pagamenti da 19.95$".

Le nuove GeForce RTX, ovviamente, continueranno a processare le precedenti implementazioni in rasterizzazione, che anzi rimarranno ancora le più popolari. Con il suo particolare approccio, Ray Tracing può risolvere un problema di ottimizzazione che si è venuto a creare con il progresso della qualità della grafica dei videogiochi con rasterizzazione, in dipendenza dell'aumento delle fonti di illuminazione con i motori grafici che supportano l'illuminazione globale. Non essendo più la discriminante il numero di fonti di illuminazione ma il singolo pixel della scena, tale problema viene aggirato.

Turing rappresenta il più grande balzo generazionale per NVIDIA dall'introduzione di Cuda nel 2006. È il secondo chip più grande mai costruito da NVIDIA, per via della presenza contemporanea di Turing SM (streaming multiprocessor), RT Core e Tensor Core. Questi particolari SM sono in grado di eseguire simulataneamente FP e INT, i primi per i colori e i secondi per gli indirizzi. Inoltre i Turing SM gestiscono tecniche di rendering moderne a rate shading variabile come il rendering foveale.

Per quanto riguarda la nuova unità di misura dei Giga Rays, che sarà fondamentale per ponderare la capacità dell'hardware di gestire il Ray Tracing ai vari livelli di complessità, gli RT core dell'architettura Turing elaborano 10 gigaray per secondo. Per stabilire un metro di paragone, Jensen ha dichiarato che 1080 Ti è in grado di gestire 1,21 gigaray al secondo. Secondo Jensen il DGX con le quattro Volta di precedente generazione elabora un frame della demo di Star Wars prima citata in in 55 ms, una sola scheda Turing in 45 ms. "Prima d'ora non è mai successo che una GPU rimpiazzasse un supercomputer nel giro di un'unica generazione", ha detto Jensen.

Tutto questo comporta grandi cambiementi nell'ecosistema della grafica, non solo dal punto di vista dell'elaborazione della scena ma anche delle unità di misura, così come della pipeline di rendering. Se fino a oggi siamo stati abituati a ragionare in termini di shader, in futuro parleremo di illuminazione e di image processing. "È quasi completamente una questione di ray tracing", ha detto ancora Jensen. Senza implementazione in hardware con gli RT Core "l'elaborazione del ray tracing richiederebbe 10 volte il tempo". In termini di potenza di calcolo, abbiamo, per la prima parte, 14 TFLOPS FP32, e 110 TFLOPS (10 TFLOPS per Giga Ray) per quanto riguarda l'apporto dei Tensor Core.

Jensen ha mostrato come funziona la pipeline di rendering di Turing: in un primo momento entrano in funzione shader e ray tracing, poi operazioni in FP e INT. Infine, i Tensor Core. In futuro questi ultimi, tramite algormitmi di intelligenza artificiale, saranno in grado di innalzare la risoluzione di immagini non dettagliate a risoluzioni inimmaginabili ora, ottimizzando tantissimo in termini di risorse hardware occupate. Questi meccanismi saranno alla base della tecnologia che NVIDIA definisce DLSS: in una comparativa Jensen ha mostrato come DLSS sia in grado di restituire immagini con differenze nel dettaglio tangibili rispetto alla risoluzione dell'attuale tecnica di anti-aliasing di riferimento, TAA, anche alla risoluzione 4K.

Da: QUI

Articolo di Gregorio

ALTRE NOTIZIE
Fortnite, patch 8.40: cosa sapere
Fortnite, patch 8.40: cosa sapere
(Bari)
-

È arrivata finalmente la patch 8.40 di Fortnite che, come ogni volta, introduce novità e sorprese speciali per tutti gli utenti.
È arrivata finalmente la patch 8.40 di Fortnite che, come ogni volta, introduce...

WhatsApp, ecco gli sticker animati: come funzionano
WhatsApp, ecco gli sticker animati: come funzionano
(Bari)
-

Un continuo lavoro di perfezionamento. Negli ultimi mesi gli sviluppatori di WhatsApp sono alle prese con molte novità: la modalità scura (che dovrebbe arrivare già nelle prossime settimane), un nuovo sistema per proteggere le chat su Android e un nuovo m
Un continuo lavoro di perfezionamento. Negli ultimi mesi gli sviluppatori di...

Edge e Chrome: tutte le differenze!
Edge e Chrome: tutte le differenze!
(Bari)
-

Sono in molti a temere che Edge non sarà altro che una versione di Chrome con una interfaccia rivisitata da Microsoft.
Sono in molti a temere che Edge non sarà altro che una versione di Chrome con...


(Bari)
-


La presenza di vita nell'Universo è un dilemma che continua a tormentare gli...

Sud Italia, dove INTERNET non esiste per 1 persona su 3
Sud Italia, dove INTERNET non esiste per 1 persona su 3
(Bari)
-

Secondo gli ultimi dati sull'utilizzo di internet e dei social network, anche per gli italiani l'utilizzo dei social è in crescita, dove Facebook è in testa con 31 milioni di utenti, seguito da Instagram e Pinterest. Ma quanto a penetrazione di internet r
Gli italiani sono sempre più online, sebbene al di sotto della media...



Leggendo | Richiesta informazioni | Sitemap articoli

2013 Leggendo - Tutti i diritti riservati