HPE entra nel mercato IA in cloud

Hewlett Packard Enterprise nel mercato cloud dell’Intelligenza Artificiale con HPE GreenLake for LLMs, prima di applicazioni IA specifiche.

Hewlett Packard Enterprise ha annunciato il suo ingresso nel mercato dell’IA in Cloud attraverso l’espansione del suo portafoglio HPE GreenLake per offrire modelli linguistici di grandi dimensioni a qualsiasi azienda, dalle startup alle prime 500 società certificate dalla rivista Fortune, per l’accesso on demand in un servizio cloud di supercomputing multi-tenant.

Con l’introduzione di HPE GreenLake for LLMs (Large Language Models), le aziende possono addestrare, mettere a punto e distribuire privatamente l’IA su larga scala utilizzando una piattaforma di supercomputing sostenibile che combina il software IA di HPE e i supercomputer primi nel mercato. HPE GreenLake for LLMs sarà fornito in collaborazione con il partner Aleph Alpha, startup tedesca impegnata nell’IA, per garantire agli utenti un LLM collaudato sul campo e pronto all’uso, così da realizzare casi d’uso che richiedono l’elaborazione e l’analisi di testi e immagini.

HPE GreenLake for LLMs è la prima di una serie di applicazioni IA specifiche che HPE prevede di lanciare in futuro. Queste applicazioni includeranno il supporto per la modellazione climatica, la sanità e le life science, i servizi finanziari, la produzione e i trasporti.

Le impressioni immediate

«Siamo a un punto di svolta – ha dichiarato Antonio Neri, presidente e CEO di HPEun mutamento generazionale nel mercato dell’IA che cambierà in maniera altrettanto radicale il web, il mobile e il cloud. HPE sta rendendo l’IA, un tempo appannaggio esclusivo dei laboratori governativi ben finanziati e dei giganti del cloud globale, accessibile a tutti, offrendo una gamma di applicazioni di IA, a partire da modelli linguistici di grandi dimensioni, che girano sui supercomputer collaudati e sostenibili di HPE. Ora le aziende possono adottare l’IA per sostenere l’innovazione, conquistare i mercati e raggiungere risultati straordinari con un servizio cloud on-demand che addestra, perfeziona e distribuisce i modelli su vasta scala e in modo responsabile».

HPE è ai vertici mondiali del supercomputing, in grado di abilitare livelli di performance e di ampiezza di applicazione senza precedenti per l’IA, tra cui l’abbattimento della barriera della velocità exascale con il supercomputer più veloce del mondo, Frontier.

A differenza delle offerte cloud generiche che eseguono più carichi di lavoro in parallelo, HPE GreenLake per LLMs si basa su un’architettura AI-native progettata in modo esclusivo per eseguire un singolo carico di lavoro di training e simulazione IA su larga scala e alla massima capacità di calcolo. L’offerta supporterà attività di IA e HPC su centinaia o migliaia di CPU o GPU contemporaneamente. Questa capacità è significativamente più efficace, affidabile ed efficiente per addestrare l’IA e creare modelli più accurati, consentendo alle aziende di accelerare il loro percorso dal Proof of Concept alla produzione, così da risolvere i problemi più rapidamente.

HPE entra nel mercato IA in cloud
L’intervento del presidente e CEO Antonio Neri al recente HPE Discover 2023 di Las Vegas.

La prima di una serie di applicazioni IA

HPE GreenLake per LLMs includerà l’accesso a Luminous, un modello linguistico pre-addestrato di Aleph Alpha, offerto in diverse lingue, tra cui inglese, francese, tedesco, italiano e spagnolo. LLMs consente ai clienti di sfruttare i propri dati, addestrare e mettere a punto un modello personalizzato, per ottenere insight in tempo reale basati sulle proprie conoscenze.

Questo servizio consente alle aziende di realizzare e commercializzare diverse applicazioni di IA per integrarle nei loro flussi di lavoro e creare valore sia in termini di ricerca sia di business.

«Utilizzando i supercomputer e il software IA di HPE – ha dichiarato Jonas Andrulis, fondatore e CEO di Aleph Alphaabbiamo addestrato in modo efficiente e rapido Luminous, un modello linguistico di grandi dimensioni per organizzazioni che operano in settori critici come banche, ospedali e studi legali, da utilizzare come assistente digitale per accelerare il processo decisionale e risparmiare tempo e risorse. Siamo orgogliosi di essere partner di lancio di HPE GreenLake for Large Language Models e siamo impazienti di espandere la nostra collaborazione con HPE per portare Luminous in cloud e offrirlo come servizio ai nostri clienti finali e alimentare nuove applicazioni per le iniziative di business e di ricerca».

Addestramento, messa a punto e implementazione IA

HPE GreenLake per LLMs sarà disponibile on-demand e funzionerà sui supercomputer più potenti e sostenibili al mondo, i supercomputer HPE Cray XD, eliminando la necessità per i clienti di acquistare e gestire un proprio supercomputer, solitamente molto costoso, complesso e che necessita di competenze specifiche. L’offerta si avvale di HPE Cray Programming Environment, una suite software completamente integrata disegnata per ottimizzare le applicazioni HPC e IA, con una serie completa di strumenti per lo sviluppo, il porting, il debug e la messa a punto del codice.

Inoltre, questa piattaforma di supercomputing fornisce il supporto per il software IA/ML di HPE, che comprende HPE Machine Learning Development Environment per addestrare rapidamente modelli su larga scala e HPE Machine Learning Data Management Software per integrare, tracciare e verificare i dati con funzionalità AI riproducibili per generare modelli affidabili e accurati.

Una IT sostenibile

HPE si impegna a fornire ai propri clienti un IT sostenibile: HPE GreenLake per LLMs funzionerà in strutture di colocation, come QScale in Nord America, la prima infrastruttura a sfruttare un design appositamente studiato per supportare le esigenze di supercomputing, alimentato quasi per il 100% da energia rinnovabile (verrà eseguito su supercomputer inizialmente ospitati nella colocation di QScale in Quebec, che utilizza energia da fonti rinnovabili al 99,5%).

Disponibilità

HPE accetta già ora ordini riguardo a HPE GreenLake per LMMs e prevede una disponibilità aggiuntiva entro la fine del 2023 a partire dal Nord America, mentre la disponibilità in Europa è prevista per l’inizio del 2024.

HPE ha inoltre annunciato un’espansione delle sue soluzioni di calcolo per l’inferencing dell’IA. I nuovi server HPE ProLiant Gen11 sono ottimizzati per i workload IA, attraverso l’utilizzo di GPU le più avanzate. I server HPE ProLiant DL380a e DL320 Gen11 aumentano le prestazioni di inferenza IA di oltre 5 volte rispetto ai modelli precedenti.

calendar_month

a cura di Loris Cantarelli