NVIDIA: nuova release del toolkit CUDA versione 2.2
NVIDIA annuncia di aver
rilasciato la versione 2.2 del toolkit e dell'SDK CUDA per l'elaborazione su
GPU. Questa release presenta diverse novità di rilievo che consentono
un'ulteriore ottimizzazione delle prestazioni delle GPU NVIDIA compatibili con
CUDA. Inoltre, la versione 2.2 del toolkit CUDA include il supporto per Windows
7, il nuovo e attesissimo SO di Microsoft che sarà compatibile con
l'elaborazione su GPU.
Le altre novità del Toolkit CUDA
2.2 includono:
- Visual Profiler per la GPU
Il passo più comune nell'ottimizzazione delle prestazioni delle applicazioni consiste nella definizione di un profilo dell'applicazione e quindi nella modifica del suo codice. CUDA Visual Profiler è uno strumento grafico che permette il profiling delle applicazioni in C in esecuzione sulla GPU. Questa nuova release del CUDA Visual Profiler include la parametrazione delle transazioni di memoria, un'opzione che permette agli sviluppatori di tenere sotto controllo una delle aree più importanti di ottimizzazione delle performance.
- Miglioramento dell'interoperabilità di OpenGL
Offre un miglioramento delle prestazioni delle applicazioni OpenGL di diagnostica per immagini e di altro tipo eseguite su GPU Quadro durante l'elaborazione con CUDA, nonché del rendering delle funzioni grafiche OpenGL eseguite su GPU differenti.
- Texturing diretto dalla linear pitch memory
Offre concreti risparmi di ampiezza di banda (sino al doppio) per le applicazioni di elaborazione video.
- Zero-copy
Offre netti miglioramenti delle performance alle applicazioni di streaming, transcodifica video, elaborazione di immagini ed elaborazione di segnali consentendo alle funzioni CUDA di leggere/scrivere direttamente sulla memoria di sistema "pinned". Questa opzione riduce la frequenza e la quantità dei passaggi di dati tra la memoria della GPU e quella della CPU. L'opzione + supportata da MCP7x e dalle GPU GT200 e successive.
- Pinned Shared Sysmem
Permette alle applicazioni che si avvalgono di più GPU di ottenere migliori performance e di usare una quantità complessiva minore della memoria di sistema. Questo risultato viene ottenuto grazie a una soluzione che permette a diverse GPU di accedere agli stessi dati contenuti nella memoria di sistema. I tipici sistemi multi-GPU includono i server Tesla, i Personal Supercomputer Tesla, le workstation che si avvalgono di unità deskside QuadroPlex e i sistemi multi-GPU domestici.
- Memcopy asincrono su Vista
Consente alle applicazioni di realizzare netti miglioramenti delle prestazioni copiando la memoria in modo asincrono. Questa funzionalità era già disponibile su altre piattaforme supportate ma ora è disponibile anche per Vista.
- Debugger hardware per le GPU
Ora gli sviluppatori possono usare sulle GPU CUDA-compatibili un debugger a livello hardware che offre la semplicità del diffusissimo debugger open-source GDB ma permette agli sviluppatori di effettuare con estrema facilità il debug di un programma che esegue migliaia di thread sulla GPU. Questo debugger GDB CUDA per Linux dispone di tutte le funzionalità necessarie per eseguire il debug direttamente sulla GPU, ad inclusione della capacità di definire breakpoint, seguire le variabili, ispezionare stati, ecc.
- Device mode esclusivo
Questa
opzione di configurazione del sistema permette a un'applicazione di ottenere
l'uso esclusivo di una GPU, garantendo che il 100% della potenza di
elaborazione della memoria della GPU siano dedicati a quella applicazione. È
comunque possibile eseguire più applicazioni in modo concomitante sul sistema,
ma solo un'applicazione per volta può utilizzare ciascuna GPU. Questa configurazione è particolarmente utile
sui sistemi di cluster Tesla nei quali le applicazioni più impegnative possono
richiedere l'uso dedicato di una o più GPU per ogni nodo di cluster Linux.
Gli
sviluppatori possono scaricare la nuova versione del toolkit, dell'SDK e dei
driver CUDA all'indirizzo www.nvidia.it/cuda.
Tags: nvidia