Cg: il codice C per le GPU
nVidia introduce un nuovo linguaggio di programmazione per sfruttare tutte le features delle GPU
di Paolo Corsini pubblicata il 14 Giugno 2002, alle 09:50 nel canale Schede VideoNVIDIA
nVidia ha ufficialmente presentato Cg, un nuovo linguaggio di programmazione specificamente pensato come tool di supporto agli sviluppatori di giochi; con Cg sarà possibile programmare codice per sfruttare le funzionalità integrate in ogni GPU in modo molto più semplice e intuitivo, per un programmatore, che utilizzando il tradizionale Assembler.
L'obiettivo di nVidia è quello di rendere Cg l'equivalente, per le GPU delle moderne schede video, del linguaggio C per il processore, cioè il tool più utilizzato dai programmatori.
Uno dei principali obiettivi di nVidia con la prossima generazione di chip video è quella di avvicinare sempre più la grafica 3D dei PC ad un'esperienza real time, che quindi permetta di avere in tempo reale sul proprio monitor lo stesso livello di scene e di qualità d'immagine visualizzati nei più recenti film di animazione, come Final Fantasy.
Le nuove tecnologie implementate nelle GPU, nonché un linguaggio come quello Cg, permettono di arrivare più rapidamente a questo genere di risultato, portando l'esperienza 3D di un Personal Computer ad un livello completamente nuovo e, per molti versi, impensabile sino a pochi anni fa.
Ulteriore documentazione su Cg può essere reperita direttamente sul sito nVidia, ai seguenti indirizzi:
- 3DGPU.com;
- HotHardware (con intervista a Dave Kirk);
- bjorn3d.com;
- extremetech.com (con intervista a Kurt Akeley);
- nvnews.net.
L'obiettivo di nVidia è quello di rendere Cg l'equivalente, per le GPU delle moderne schede video, del linguaggio C per il processore, cioè il tool più utilizzato dai programmatori.
Uno dei principali obiettivi di nVidia con la prossima generazione di chip video è quella di avvicinare sempre più la grafica 3D dei PC ad un'esperienza real time, che quindi permetta di avere in tempo reale sul proprio monitor lo stesso livello di scene e di qualità d'immagine visualizzati nei più recenti film di animazione, come Final Fantasy.
Le nuove tecnologie implementate nelle GPU, nonché un linguaggio come quello Cg, permettono di arrivare più rapidamente a questo genere di risultato, portando l'esperienza 3D di un Personal Computer ad un livello completamente nuovo e, per molti versi, impensabile sino a pochi anni fa.
Ulteriore documentazione su Cg può essere reperita direttamente sul sito nVidia, ai seguenti indirizzi:
- NVIDIA Introduces 'Cg' - C for Graphics
- NVIDIA Ushers in a New Era in Graphics With Its Advanced Compiler For The Cg Language
- NVIDIA Cg Compiler and Cg Language Universally Embraced by the Graphics Community
- 3DGPU.com;
- HotHardware (con intervista a Dave Kirk);
- bjorn3d.com;
- extremetech.com (con intervista a Kurt Akeley);
- nvnews.net.
24 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoma verrà usata solo la nvidia o anche dalle altre case?
ciao
dipende da chi "spinge" per la sua introduzione..se dietro c'è microsoft, è probabile che diventarà uno standard.
Per pg08x: certo, finora lavoro solo con le gpu nvidia perchè nvidia ha scritto anche i compilator. quando anche ATI, SYS, Matrox etc scriveranno i loro compilatori in Cg, allora il Cg funzionerà anche sulle loro piattaforme. Di certo Nvidia accumula vantaggio, ma la sua è una bella iniziativa.
Ma cazzolina a quando la realtà virtuale??? Quand'è che ATI svilupperà un bel visore 3D accoppiato ad una Radeon 8500...e allora si che potremo parlare di qualita' "reale" dei giochi....
X Simon82: ma ti rendi conto che se ci fosse un bel visore per realta' virtuale giocare a Quake 3 Arena tipo film "il tagliaerbe" sarebbe tutto un altro mondo??? Altro che Parhelia di Matrox con GameSurrond e 3 monitor....
Oggi abbiamo schede grafiche potentissime che non vengono nemmeno sfruttate dai giochi dell'ultima generazione.
Il problema è che ormai sviluppare un motore grafico 3D necessita molto tempo e risorse... i motori dei giochi migliori vengono così ricilati...
Non ho ancora letto i dettagli su questo linguaggio... se un linguaggio (...non "codice" come scrive Paolo...ahi, ahi ) come il Cg riduce davvero il carico di lavoro egli sviluppatori e se si dovesse dimostrare portabile anche su altre architetture senza troppa perdita di efficenza allora credo sia proprio un ottima scelta di nVidia.
PS. ...per tutti quelli che vogliono la realtà virtuale... mi hanno detto che in spiaggia in questi giorni è pieno di ragazze in bikini... REALI!!!
[B]Io sinceramente mi sono stancato di tutte queste scheda video che fanno miliardi di punteggi nei benchmark...Ok voglio la fluidità ... ok non deve scattare...ok...deve essere tutto con dei bei colori!
Ma cazzolina a quando la realtà virtuale??? Quand'è che ATI svilupperà un bel visore 3D accoppiato ad una Radeon 8500...e allora si che potremo parlare di qualita' "reale" dei giochi....
X Simon82: ma ti rendi conto che se ci fosse un bel visore per realta' virtuale giocare a Quake 3 Arena tipo film "il tagliaerbe" sarebbe tutto un altro mondo??? Altro che Parhelia di Matrox con GameSurrond e 3 monitor....
Io tempo fà contattai la ATI che mi disse che la 8500 già supporta il true 3d (cioè la stereoscopia), solo che è disabilitato, penso nei driver, xché poi aggiunse che è presente in dei driver a solo uso interno......
Il motivo x cui non è attivato il supporto è che il mercato non è interessato a questa feature....
Inoltre aggiungo che i driver NVIDIA già da molto supportano la visualizzazione stereoscopica, anche se non è supportato il migliore dei modi cioè doppia uscita x caschetto con 2 entrate....
[B]
Non ho ancora letto i dettagli su questo linguaggio... se un linguaggio (...non "codice" come scrive Paolo...ahi, ahi ) come il Cg riduce davvero il carico di lavoro egli sviluppatori e se si dovesse dimostrare portabile anche su altre architetture senza troppa perdita di efficenza allora credo sia proprio un ottima scelta di nVidia.
Essendo 1 linguaggio compilato certo che è portabile a condizione che si faccia generare il codice x un'altra architettura diversa da quella Nvidia....ci vuole del lavoro chiaramente ma se si imporrà come standard di programmazione.....
PS. ...per tutti quelli che vogliono la realtà virtuale... mi hanno detto che in spiaggia in questi giorni è pieno di ragazze in bikini... REALI!!!
Concordo Pienamente......inoltre direi che le emozioni sono di gran lunga migliori quelle reali
Quindi per me questo linguaggio di programmazione nn e' riservato solo ad nvidia ma x tutti
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".