Hewlett Packard Enterprise en NVIDIA versnellen AI-training met nieuwe turnkeyoplossing
Nieuwe oplossing voor onderzoeksinstellingen en bedrijven om inzet generative AI te versnellen, integreert AI/ML-software, hardware, networking en diensten
|
Brussel - 14 november 2023 - Hewlett Packard Enterprise (NYSE: HPE) en NVIDIA kondigen vandaag een supercomputingoplossing aan voor generative AI voor grote bedrijven, onderzoeksinstellingen en overheidsinstanties om training en tuning van artificial intelligence (AI)-trainingsprojecten te versnellen door gebruik van private datasets. Deze oplossing bestaat uit een software suite die klanten in staat stelt om modellen te trainen en tunen, en AI-applicaties te ontwikkelen. Ook heeft de oplossing vloeistofgekoelde supercomputers, accelerated compute, networking, storage en diensten zodat bedrijven sneller waarde uit AI kunnen halen.
Softwaretools om AI-applicaties te bouwen, pre-builtmodellen te tunen en code te ontwikkelen en aan te passen zijn cruciale onderdelen van deze supercomputingoplossing voor generative AI. De software is geïntegreerd met HPE Cray supercomputingtechnologie gebaseerd op dezelfde architectuur die gebruikt wordt in de snelste supercomputer van de wereld. Ook is de software uitgerust met de NVIDIA GH200 Grace Hopper™ Superchip. Deze oplossing biedt organisaties de kracht en prestaties die nodig zijn voor grote AI-workloads, zoals large language model (LLM) training en deep learning recommendation models (DLRM).
Een krachtige, geïntegreerde AI-oplossing
De supercomputingoplossing voor generative AI is een geïntegreerde, AI-native-oplossing die de volgende end-to-endtechnologieën en -diensten bevat:
- AI/ML acceleration software – Drie softwaretools helpen klanten hun AI-modellen te trainen en tunen, en hun eigen AI-applicaties te creëren.
- HPE Machine Learning Development Environment is een machine learning (ML) softwareplatform dat het voor klanten mogelijk maakt om AI-modellen sneller te ontwikkelen en in te zetten door populaire ML-frameworks te integreren en datavoorbereiding te vereenvoudigen.
- NVIDIA AI Software Platform for Enterprise helpt organisaties bij het ontwikkelen van nieuwe AI-oplossingen. Daarmee biedt het een suite aan libraries en tools die deep learning frameworks ondersteunen en AI-workloads optimaliseren.
- De HPE Cray Programming Environment suite biedt programmeurs een complete set tools voor het ontwikkelen, porten, debuggen en verfijnen van code.
- Ontworpen voor groot gebruik – Gebaseerd op HPE Cray EX2500, een exascale-klassesysteem, en met NVIDIA GH200 Grace Hopper Superchips kan de oplossing duizenden graphic processing units (GPU’s) ondersteunen. Ook heeft het een mogelijkheid om de volledige capaciteit nodes te wijden aan één AI-workload voor een snellere time-to-value.
- Een netwerk voor real-time AI - HPE Slingshot Interconnect biedt een open, ethernet-gebaseerd high performance netwerk dat exascale-klasse workloads ondersteunt. Deze aanpasbare onderlinge verbintenis maakt high-speed networking mogelijk.
- Turnkey eenvoud - HPE Complete Care Services biedt specialisten voor set-up, installatie en full-lifecycle-ondersteuning om AI-implementatie makkelijker te maken.
De toekomst van supercomputing en AI is laag in energieverbruik zonder effect op de performance
Het is voorspeld dat AI-workloads in 2028 meer dan 20 gigawatt aan stroom verbruiken in datacenters. Klanten hebben energie-efficiënte oplossingen nodig om de impact op hun koolstofuitstoot te minimaliseren. Daarom levert HPE oplossingen met vloeistofkoeling die voor een tot 20% betere performance per kilowatt zorgen, vergeleken met luchtgekoelde oplossingen. Bovendien verbruikt het 15% minder stroom[i]. HPE levert het merendeel van 's werelds top tien meest efficiënte supercomputers. Door gebruik te maken van DLC-technologie (Direct Liquid Cooling) voor de supercomputingoplossing voor generative AI, kunnen klanten systemen efficiënt koelen. Zo helpt HPE organisaties om krachtige compute-technologie te gebruiken en tegelijkertijd hun energieverbruik te verminderen.
Beschikbaarheid
De supercomputing-oplossing voor generative AI is vanaf december beschikbaar via HPE in meer dan 30 landen.
"Veel grote bedrijven en onderzoeksinstellingen trainen en tunen AI-modellen om innovatie te versnellen en onderzoeksdoorbraken te realiseren, maar om dit voor elkaar te krijgen hebben ze passende oplossingen nodig,” zegt Justin Hotard, executive vice president en general manager, HPC, AI & Labs bij Hewlett Packard Enterprise. “Om de implementatie van generative AI te ondersteunen, moeten organisaties oplossingen gebruiken die de benodigde performance leveren en de schaal van een supercomputer hebben die AI-training kunnen ondersteunen. We kijken ernaar uit om onze samenwerking met NVIDIA uit te breiden en een turnkey AI-native-oplossing aan te bieden, die onze klanten helpt hun AI-training en -resultaten te versnellen.”
"De NVIDIA Grace Hopper Superchip biedt de veelzijdigheid en prestaties om de volgende generatie AI aan te drijven", voegt Ian Buck, vice president en general manager, Hyperscale en HPC bij NVIDIA toe. "We waarderen onze samenwerking met HPE bij de release van het eerste systeem dat wordt aangedreven door de Grace Hopper Superchip, die het tijdperk van accelerated computing en generatieve AI mogelijk maakt door tot 10x hogere prestaties te leveren voor applicaties die terabytes aan data draaien en 4,5 keer zo snel zijn met het runnen van LLM workloads."
Aanvullende bronnen
[i] Gebaseerd op schattingen van interne performance testen door HPE in april 2023 die luchtgekoelde HPE Cray XD2000 vergelijkt met hetzelfde systeem dat directe vloeistofkoeling gebruikt. Met een benchmark van SPEChpc™2021, small, MPI + OpenMP, 64 ranks, 14 threads ingeschatte resultaten per server, meette het luchtgekoelde systeem 6,61 performance per kW en het DLC systeem meette 7,98 performance per kW, resulterend in een verschil van 20,7%. Dezelfde benchmark meette resultaten van 4539 watts voor het luchtgekoelde systeem’s chassis power en het DLC systeem meette 3862 watts, een verschil van 14,9%.