AI e datacenter: «Una rivoluzione strutturale»

The Next Factory ha parlato con Andrea Faeti, Sales Director Enterprise Account di Vertiv Italia, per capire quali sono le principali sfide tecnologiche, energetiche e strutturali che l’AI impone oggi alle infrastrutture IT.

La crescente diffusione dell’intelligenza artificiale (AI) sta ridisegnando in profondità l’architettura dei datacenter.

The Next Factory ne ha parlato con Andrea Faeti, Sales Director Enterprise Account di Vertiv Italia, per capire quali sono le principali sfide tecnologiche, energetiche e strutturali che l’AI impone oggi alle infrastrutture IT.

L’intelligenza artificiale cambia tutto: «Serve un nuovo paradigma»

«L’intelligenza artificiale ha delle caratteristiche computazionali molto diverse rispetto alle applicazioni IT tradizionali, come quelle che usiamo tutti i giorni nel cloud», spiega Faeti. «Una delle principali è che non si basa su CPU, ma su GPU, che permettono calcoli paralleli su dati relativamente semplici. Questo porta a utilizzare macchine estremamente potenti, con grande capacità di calcolo». Clicca qui per vedere e ascoltare la videopillola: Quali sono le esigenze imposte dall’intelligenza artificiale ai data center?

Questa potenza concentrata in spazi ridotti comporta un enorme incremento nella densità energetica. «Un datacenter tradizionale lavora con rack da qualche kilowatt. Con l’AI, si passa a decine, a volte centinaia di kilowatt per singolo rack. Questo richiede tecnologie di alimentazione e raffreddamento completamente diverse da quelle classiche».

Potenza elettrica e raffreddamento: nuove sfide per i rack AI

«Alimentare un rack AI, che ha un footprint di circa un metro quadrato, con centinaia di kilowatt in modo sicuro e affidabile, rappresenta una sfida», sottolinea Faeti. «Bisogna distribuire la potenza in modo ridondante e affidabile, utilizzando tecnologie come le Passbar e PDU specializzate, pensate per gestire queste potenze estreme».

Ma la vera rivoluzione arriva sul fronte termico: «Con questi livelli di dissipazione termica, il raffreddamento ad aria non è più sufficiente. Si ricorre al raffreddamento a liquido direct-to-chip, dove un fluido, non necessariamente acqua, viene portato direttamente sul chip per estrarre il calore».

Per questo tipo di sistemi, Vertiv ha sviluppato unità specifiche: «Le nostre CDU, che chiamiamo XDU, sono in grado di gestire il raffreddamento a liquido anche per unità di calcolo molto complesse». Clicca qui per vedere e ascoltare il video: Come rendere performanti i rack sia in termini di alimentazione sia di raffreddamento

Datacenter AI vs. tradizionali: un’inversione di logica

La differenza tra datacenter tradizionali e AI non è solo tecnica, ma anche concettuale. «Un datacenter tradizionale ha una sala ampia, con molti rack a bassa potenza, raffreddati ad aria. I sistemi di supporto – energia, freddo – sono collocati sopra o accanto e occupano meno spazio rispetto alla sala server», spiega Faeti.

«Con l’AI, cambia tutto: si concentrano grandi potenze in pochi rack, quindi la sala si riduce, ma le infrastrutture di supporto crescono enormemente. Spesso occupano più spazio della sala dati stessa. Ecco perché il datacenter AI richiede una progettazione completamente diversa». Clicca qui per vedere e ascoltare il video: Distinzione tra i data center tradizionali e l’ecosistema AI

Che cos’è una “Fabric AI Ready”?

Secondo Vertiv, una Fabric AI Ready è un’infrastruttura già predisposta per integrare le tecnologie abilitanti per l’intelligenza artificiale. «Richiede progettazioni complesse perché parliamo di potenze elevate e sistemi critici. Noi di Vertiv abbiamo scelto di standardizzare: abbiamo creato una libreria di soluzioni modulari e scalabili, pronte all’uso».

Vertiv collabora anche con NVIDIA: «Abbiamo integrato i nostri dispositivi nei loro progetti di datacenter AI. Usando gemelli digitali, possiamo anticipare le criticità e accelerare drasticamente lo sviluppo dei progetti». Clicca qui per vedere e ascoltare il video Fabric AI-ready: che cosa s’intende?

Dal Greenfield al retrofit: AI anche nei datacenter esistenti

Non sempre è necessario partire da zero. «Nel mondo enterprise, soprattutto per soluzioni on-premise, si può partire da infrastrutture esistenti e introdurre gradualmente le tecnologie AI», spiega Faeti.

«Abbiamo sviluppato soluzioni come la nostra X270, che sfrutta il raffreddamento ad aria esistente per generare liquido refrigerante. Questo consente di introdurre il liquid cooling in datacenter tradizionali, riducendo costi e tempi».

«L’intelligenza artificiale richiede infrastrutture pronte ad accoglierla: ad alta densità, raffreddate a liquido, con alimentazione sicura e modulare. Ma può essere adottata anche in ambienti già esistenti, con le giuste soluzioni», conclude Faeti. «La sfida è progettare oggi il datacenter del futuro, e farlo in tempi rapidi e con costi sostenibili».

calendar_month

a cura di Stefano Belviolandi