ASUS a anuntat astazi ca va participa la Summitul Global OCP 2024 , care va avea loc in perioada 15-17 octombrie la Centrul de Conventii San Jose, la standul #A31. Cu aproape 30 de ani de experienta in industria serverelor, ASUS are o istorie bogata de colaborare cu furnizorii de servicii cloud, incepand din 2008 cu proiectarea placilor de baza pentru servere pentru centrele de date cloud de top. Bazandu-se pe aceasta baza solida in expertiza placilor de baza , ASUS a dezvoltat o gama cuprinzatoare de servere AI care vor fi prezentate la summit, subliniind angajamentul companiei de a promova tehnologiile AI si ale centrelor de date.
Avansarea AI cu NVIDIA Blackwell
Conducand mai departe inovatia AI, ASUS isi va prezenta solutiile construite cu platforma NVIDIA ® Blackwell , concepute pentru a raspunde cazurilor de utilizare generative AI si pentru a introduce o noua era a performantei centrelor de date.
In primul rand, ASUS ESC AI POD — un concurent greu si un produs vedeta — este o solutie de rack inovatoare, care include sistemul NVIDIA GB200 NVL72 , care combina 36 de procesoare NVIDIA Grace si 72 de GPU-uri NVIDIA Blackwell intr-un domeniu NVIDIA NVLink la scara de rack pentru a functiona ca un un singur GPU masiv. Ofera atat optiuni de racire lichid-aer, cat si lichid-lichid pentru o eficienta optima de la un ESC AI POD individual la intregul centru de date. ESC AI POD este proiectat pentru a accelera inferenta modelului de limba mare (LLM), oferind performanta in timp real pentru aplicatii care necesita multe resurse, cum ar fi modelele de limbaj cu trilioane de parametri. Desigur, aceasta oferta de rack de ultima generatie este sustinuta de o serie de solutii software exclusive ASUS, metodologii de verificare a sistemului si strategii de implementare la distanta – accelerand dezvoltarea AI si atat extinderea cat si extinderea pentru centrele de date de toate dimensiunile.
In al doilea rand, ASUS ESC NM2-E1, un server 2U cu platforma NVIDIA GB200 NVL2, este conceput special pentru AI generative si HPC, oferind comunicatii cu latime de banda mare. Proiectat pentru a optimiza intreaga stiva de software NVIDIA, ofera o platforma exceptionala pentru dezvoltatorii si cercetatorii AI care doresc sa stimuleze inovatia in continuare.
Optimizarea performantei AI cu arhitectura NVIDIA MGX si GPU-uri NVIDIA H200 Tensor Core
ASUS va prezenta , de asemenea , ASUS 8000A-E13P, un server 4U care accepta pana la opt GPU- uri NVIDIA H200 Tensor Core . Complet pe deplin cu arhitectura NVIDIA MGX ® , este proiectat pentru implementare rapida in infrastructurile AI la scara larga ale intreprinderilor. Configurat cu o topologie NVIDIA 2-8-5 (CPU-GPU-DPU/NIC) si patru latime de banda mare ConnectX-7 sau BlueField-3SuperNIC, imbunatateste traficul est-vest si performanta generala a sistemului.
Alaturati-va sesiunii ASUS 2024 OCP despre arhitectura serverului modular al centrului de date
Nu ratati sesiunea ASUS de 15 minute de la Summitul Global OCP 2024 din 16 octombrie, intre orele 10:20 si 10:35, unde ASUS va explora viitorul arhitecturii de server modulare cu o introducere a Sistemului hardware modular al centrului de date (DC). -MHS) dezvoltat de OCP si folosind designul modular NVIDIA MGX . Descoperiti cum aceasta arhitectura inovatoare transforma designul serverului, oferind flexibilitate fara precedent, intretinere simplificata si scalabilitate eficienta pentru centrele de date moderne.