ASUS, azienda leader nei sistemi server, schede madri per server, workstation e schede madri per workstation, ha annunciato oggi il supporto delle più recenti soluzioni NVIDIA AI con GPU NVIDIA® Tesla® V100 Tensor Core 32GB e Tesla P4 sui propri server.
L’intelligenza artificiale (AI) traduce i dati in informazioni, innovazioni scientifiche e servizi significativi. La dimensione delle reti neurali che alimentano questa rivoluzione si è sviluppata in modo straordinario. Per esempio, l’attuale modello di rete neurale all’avanguardia per la traduzione linguistica, il modello Google MOE, ha 8 miliardi di parametri rispetto ai 100 milioni di parametri dei modelli di soli due anni fa.
Per gestire questi modelli di grandissime dimensioni, NVIDIA Tesla V100 offre una configurazione di memoria da 32 GB, il doppio rispetto alla generazione precedente. Fornendo il doppio della memoria, permette di migliorare del 50% le prestazioni di deep learning per i modelli di AI di nuova generazione e di incrementare la produttività degli sviluppatori, consentendo ai ricercatori di fornire un maggior numero di innovazioni legate all’intelligenza artificiale in meno tempo. La maggior quantità di memoria permette alle applicazioni HPC di eseguire simulazioni più grandi in modo più efficiente che mai.
Tesla P4 è la GPU di inferenza con deep learning più veloce al mondo per server scalabili per abilitare applicazioni intelligenti ed efficienti basate su AI. Riduce la latenza delle inferenze fino a 10 volte in qualsiasi infrastruttura hyperscale e offre un’incredibile efficienza energetica, 40 volte migliore rispetto alle CPU, dando nuova vita a una nuova ondata di servizi AI precedentemente limitati dalla latenza.
I server ASUS sono alimentati dalle più recenti GPU NVIDIA Tesla V100 32GB e P4, per offrire ai clienti la tecnologia più aggiornata e sfruttare le prestazioni AI in diversi casi d’uso.
- ASUS ESC8000 G4 è ottimizzato per applicazioni HPC e AI Training, supporta fino a 8 GPU Tesla V100 32GB e fa parte della classe HGX-T1 di piattaforme NVIDIA GPU-Accelerated Server.
- ASUS ESC4000 G4 è progettato per HPC e carichi di lavoro inferenziali ed è basato su 4 GPU Tesla V100 32GB o 8 GPU Tesla P4, in base all’applicazione. Fa parte della classe HGX-I2 di piattaforme NVIDIA GPU-Accelerated Server e assicura un’esperienza reattiva in tempo reale per nuovi scenari d’uso, riducendo la latenza dell’inferenza di apprendimento profondo di 10 volte. Con 20 teraflop di prestazioni inferenziali utilizzando operazioni INT8 e un motore di transcodifica basato su hardware, ESC4000 G4 alimenta nuovi servizi video basati sull’AI. Con un design a 75-Watt di dimensioni ridotte, si adatta a qualsiasi server scalabile e offre un’efficienza delle prestazioni 40 volte superiore rispetto alle CPU.
- ASUS RS720-E9 è perfetto per le inferenze AI ed è equipaggiato con GPU NVIDIA Tesla P4.
Sfruttando i vantaggi offerti dalle GPU NVIDIA Tesla e la propria avanzata esperienza di progettazione hardware, ASUS è impegnata a offrire ancora più possibilità di scelta e valore alla propria clientela in tutto il mondo.