Hewlett Packard Enterprise con Nvidia per una GenAI full-stack di classe enterprise

Si amplia il portfolio IA-native per accelerare addestramento, tuning e inferenza dei modelli d’Intelligenza Artificiale generativa.

Hewlett Packard Enterprise ha annunciato una partnership strategica con Nvidia per realizzare una soluzione di classe enterprise per GenAI (Intelligenza Artificiale generativa).

La soluzione co-ingegnerizzata e preconfigurata per l’addestramento e il tuning di modelli IA consente alle aziende di qualsiasi dimensione di personalizzare rapidamente i modelli di base utilizzando dati privati e di distribuire le applicazioni di produzione ovunque, dall’edge al cloud. L’offerta elimina la complessità dello sviluppo e dell’implementazione dell’infrastruttura GenAI grazie a una soluzione full-stack di IA tuning e d’inferenza.

Le aziende che sviluppano e implementano modelli GenAI per casi d’uso come la ricerca conversazionale, l’automazione dei processi aziendali e la creazione di contenuti, necessitano di uno stack, software e infrastrutturale, che possa essere implementato rapidamente e dovunque l’azienda ne abbia bisogno.

La nuova soluzione di classe enterprise per l’IA generativa fa parte di una collaborazione consolidata tra HPE e Nvidia che offre soluzioni di IA full-stack e out-of-the-box. Queste soluzioni integrano Machine Learning Development Environment, Ezmeral Software, ProLiant Compute e Cray Supercomputers di HPE con il software suite AI Enterprise di Nvidia, incluso il framework NeMo.

Aumentare la velocità dell’IA con una soluzione ad hoc

La soluzione di classe enterprise per l’IA generativa è una nuova soluzione di IA tuning e inferenza per data center che offre alle aziende di tutte le dimensioni un punto di ingresso per iniziare rapidamente il loro viaggio nell’IA grazie a un’offerta pronta all’uso.

Con la nuova soluzione di classe enterprise per l’IA generativa, le aziende possono utilizzare modelli di base preaddestrati con i loro dati privati per creare applicazioni come gli IA chatbot. Inoltre, i workstream di RAG (Retrieval-Augmented Generation) migliorano ulteriormente la qualità dei dati e la precisione dell’applicazione.

Costruito e ottimizzato per l’IA: Un’architettura su scala rack con HPE ProLiant Compute DL380a preconfigurata con GPU (Graphics Processing Unit) Nvidia L40S, DPU Nvidia BlueField-3 e Nvidia Spectrum-X Ethernet Networking Platform per l’AI hyperscale. La soluzione è stata progettata per mettere a punto un modello Llama 2 a 70 miliardi di parametri e comprende 16 server HPE ProLiant DL380a e 64 GPU L40S.

HPE AI software: HPE Machine Learning Development Environment Software con nuove funzionalità di studio dell’IA per prototipare e testare rapidamente i modelli e HPE Ezmeral Software con nuove funzionalità GPU-aware per semplificare l’implementazione e accelerare la preparazione dei dati per i workload di IA nel cloud ibrido.

Nvidia AI software: Nvidia AI Enterprise per accelerare lo sviluppo e l’implementazione dell’AI di produzione con sicurezza, stabilità, gestione e supporto. Offre il framework Nvidia NeMo, i toolkit di controllo dei dati (guardrail), gli strumenti per la cura dei dati e i modelli preaddestrati per semplificare la GenAI aziendale.

I servizi HPE per accelerare verso l’IA

HPE Services offre ora un ampio portfolio di servizi di consulenza, formazione della forza lavoro e soluzioni di implementazione. I nuovi servizi AI accompagnano i clienti in ogni fase del percorso: dalla scoperta della GenAI e dei LLM (Large Language Model) alla loro implementazione, dove i clienti sviluppano i modelli operativi ottimali e le strategie di dati in hybrid cloud necessarie per costruire, distribuire e scalare le soluzioni in risultati tangibili. Questi servizi sono supportati dai nuovi Centri globali per l’IA/dati aperti in Spagna, Stati Uniti, Bulgaria, India e Tunisia.

HPE accelera il training IA con una soluzione Nvidia

In occasione dell’annuale Supercomputing Conference il 12-17 novembre 2023 a Denver in Colorado, HPE ha annunciato una soluzione di supercomputing “chiavi in mano”, powered by Nvidia, destinata alle grandi imprese, agli istituti di ricerca e alle organizzazioni governative per affrontare la prima fase del ciclo di vita dell’AI: lo sviluppo e l’addestramento dei modelli di base fondamentali. La soluzione di classe enterprise per l’AI generativa è una soluzione di dimensioni ridotte per le aziende focalizzate sulla fase di tuning e inferenza dei modelli.

Nuova architettura AI-native e soluzioni di hybrid cloud

In occasione di HPE Discover Barcelona in SPagna il 29 novembre – 1 dicembre 2023, l’azienda ha annunciato la sua nuova architettura AI-native aperta e full-stack e una serie di soluzioni AI-native e di hybrid cloud per lo sviluppo di modelli per il machine learning, per la data analytics, per il file storage AI-optimized, il tuning e l’inferenza IA e i servizi professionali.

I commenti alla partnership

«Insieme – ha dichiarato Antonio Neri, presidente e CEO di HPE – HPE e Nvidia si trovano in una posizione ottimale nell’offrire una soluzione AI-native completa che semplificherà notevolmente il percorso di sviluppo e implementazione di modelli IA grazie a un portfolio di soluzioni preconfigurate. Questa collaborazione strategica tra HPE e Nvidia ridurrà drasticamente le barriere per i clienti che desiderano trasformare le proprie aziende con l’IA».

«L’era dell’IA generativa sta entrando nel vivo – ha affermato Jensen Huang, fondatore e CEO di Nvidia – con le aziende che si stanno impegnando per reimmaginare le proprie attività. La nostra partnership con HPE aiuterà le imprese a ottenere una produttività senza precedenti grazie ad applicazioni di IA che si connettono ai dati aziendali per alimentare assistenti precisi, chatbot informati e ricerche semantiche».

Disponibilità

La soluzione di classe enterprise per l’IA generativa sarà disponibile nel primo trimestre del 2024.

calendar_month

a cura di Redazione