The page you're viewing is for Italian (EMEA) region.

Rivolgiti a un rappresentante di Vertiv che lavorerà al tuo fianco e ti aiuterà a realizzare progetti complessi in base alle tue esigenze. Se la tua organizzazione ha bisogno di assistenza tecnica per un grande progetto, Vertiv può fornirti tutto il supporto necessario.

Ulteriori informazioni

Molti clienti si affidano ai reseller che sono partner di Vertiv per l’acquisto di prodotti ideali per le loro applicazioni IT. Affidati alle elevate competenze dei nostri partner che, grazie ai prodotti Vertiv, sono in grado di offrire soluzioni complete per infrastrutture e applicazioni IT: dalle specifiche alla vendita all’assistenza.

Trova un reseller

Sai già di cosa hai bisogno? Vorresti la comodità dell’acquisto e della spedizione online? Alcune categorie di prodotti Vertiv si possono acquistare tramite un reseller online.


Trova un reseller online

Hai bisogno di aiuto per scegliere un prodotto? Parla con un esperto di Vertiv altamente qualificato che ti orienterà verso la soluzione più adatta.



Contatta un esperto di Vertiv

The page you're viewing is for Italian (EMEA) region.

Il futuro delle infrastrutture IT:
adottare l'AI e l'innovazione

Di pari passo con la grande evoluzione del mondo digitale, l'AI sta favorendo la trasformazione, in particolare nell'infrastruttura IT.

Martin T. Olsen •

Gli operatori e i professionisti dei data center devono adattare i propri sistemi per rimanere al passo con i rapidi progressi dell'architettura basata sull'AI. I carichi di lavoro IA stanno plasmando il dibattito e i cambiamenti, diventando il principale motore per l'espansione della capacità IT, il consumo energetico e la generazione di calore. La spinta verso l'espansione delle infrastrutture e la necessità di comprendere richieste sempre più esigenti sono fondamentali per rimanere competitivi.


Figura 1. La crescita prevista per lo sviluppo dell'IA è destinata ad aumentare. Negli ultimi anni, lo sviluppo dei modelli linguistici di grandi dimensioni (LLM) rappresenta una crescita cruciale e indicativa delle esigenze infrastrutturali digitali critiche. Tuttavia, le funzioni relative alle richieste nell'ambito dell'AI differiscono, richiedendo un apprendimento continuo che va di pari passo con la crescita: ad esempio, l'alimentazione, il raffreddamento e la resilienza necessari per addestrare i modelli sono diversi da quelli necessari per l'inferenza. Fonte: Omdia

Il potenziale dell'AI di estrarre dati e ricavare informazioni preziose è simile a quello delle attività di raffinazione delle preziose risorse naturali. Gli strumenti e le infrastrutture che supportano il processo devono evolversi per gestire l'aumento del carico in modo efficiente e responsabile. Una delle tendenze più rilevanti è rappresentata dal drastico aumento della densità dei rack: si prevede che entro il 2029 le già alte densità attuali dei rack, 50 kW per rack, raggiungeranno 1 MW. Questo non è un dato casuale, ma un’anticipazione dei rapidi cambiamenti già in arrivo per aziende e data center.

La sfida legata alla domanda di energia

La maggiore densità dei rack comporta una potenza di calcolo superiore ma anche sfide più impegnative nella gestione del calore e del consumo energetico. Sul piano fisico e in relazione ai sistemi, una delle sfide principali è l'integrazione dei metodi di raffreddamento ad aria tradizionali con le emergenti tecniche di raffreddamento a liquido. Questi evoluti metodi di raffreddamento sono fondamentali per garantire le prestazioni e l'affidabilità del sistema all'aumentare della densità dei rack e possono migliorare l'efficienza energetica aiutando a far funzionare i data center in condizioni ottimali, evitando il provisioning eccessivo.


Inoltre, i sistemi di raffreddamento dovranno essere costantemente alimentati. La crescente domanda di energia correlata ai carichi di lavoro dell'AI ad alta intensità di processori richiede soluzioni di alimentazione sempre attive per gestire con efficacia i carichi a impulsi. In sintesi, le soluzioni di alimentazione scalabili sono tra le poche misure proattive che consentono ai data center di gestire questi picchi senza compromettere le prestazioni e l'affidabilità. Via via che il settore prende atto dei cambiamenti e degli adeguamenti in corso, la progettazione di sistemi scalabili comporta una crescente collaborazione tra i produttori di chip, i fornitori di sistemi di alimentazione e di raffreddamento e gli operatori dei data center, che cercano di difendere il proprio vantaggio sul mercato.


"Oggi uno dei nostri ruoli consiste nel rendere più disponibile l'alimentazione e garantire che venga utilizzata con più efficienza nel data center. Dobbiamo essere sicuri di utilizzare l'energia disponibile in modo efficace."

stephen-liang
Stephen Liang
Chief Technology Officer ed Executive Vice President di Vertiv

Una gestione efficiente dell'alimentazione sarà fondamentale per sostenere la crescita dell'AI. I data center devono adottare sistemi di distribuzione dell'alimentazione più raffinati, in grado di supportare densità superiori e carichi dinamici per la gestione dei data center. Anche le innovazioni nel campo dell'energia rinnovabile e delle reti elettriche intelligenti saranno cruciali, riducendo l'impatto ambientale di queste operazioni che richiedono molta energia.

Implicazioni concrete

Gli attuali sistemi stanno avranno crescenti difficoltà nel gestire l'aumento dell'intensità dei dati e della potenza di elaborazione che i complessi modelli di AI richiedono. Con l'accelerazione nello sviluppo dell'hardware specializzato, come gli acceleratori per l'AI e le unità di elaborazione grafica (GPU) avanzate, saranno pochi i fornitori in possesso delle competenze tecniche e dell'esperienza necessarie per adeguarsi alle mutevoli esigenze delle aziende e dei data center del futuro.


Non si tratta solo dell'hardware: occorre reinventare anche l'architettura IT critica in sé. I data center tradizionali funzionano sulla base di principi che potrebbero non essere più applicabili, in un mondo incentrato sull'AI. I nuovi paradigmi architettonici, come l'edge computing e le reti distribuite, avranno un ruolo fondamentale nel garantire bassa latenza e alta produttività, che sono essenziali per le applicazioni dell’AI in tempo reale. Questa evoluzione richiederà anche nuovi progressi nei framework del software, per ottimizzare i carichi di lavoro dell'AI e gestire le complesse esigenze degli ambienti ibridi.


"I cambiamenti stanno avvenendo più velocemente che mai negli ultimi 30 anni. Per gestire questo cambiamento dobbiamo lavorare insieme, a livello di settore, per definire le best practice e i design di riferimento. L'IT è fondamentale per affrontare i cambiamenti che sono già in corso."

peter-panfil
Peter Panfil
Vice President, Global Power, Vertiv

Ottimizzazione dell'infrastruttura IT per l'AI: Approfondimenti tratti dal nostro whitepaper

Le implicazioni del progresso dell'AI nei data center vanno oltre le sfide tecniche; offrono opportunità di crescita e innovazione senza precedenti. Agendo nel modo giusto le organizzazioni possono creare opportunità per migliorare l'efficienza e le prestazioni, ottenendo margini competitivi nei rispettivi campi.


Il nostro whitepaper "I carichi di lavoro dell'AI e il futuro dell'infrastruttura IT" contiene un'analisi delle tendenze attuali, previsioni degli esperti per quanto riguarda gli sviluppi futuri, e strategie attuabili che si possono già implementare. Questo whitepaper offre ai professionisti dei data center, ai progettisti e agli operatori una grande quantità di informazioni per preparare hyperscaler, colocation e infrastruttura IT aziendale ad affrontare il futuro.


Per crescere nella rivoluzione dell'AI non basta una semplice tecnologia all'avanguardia: sono necessarie soluzioni olistiche e partnership visionarie. Le aziende devono scegliere le proprie soluzioni con saggezza, ma la anche scelta dei partner giusti è fondamentale. Vertiv ha collaborato strettamente con i principali produttori di chip, come consulente sul panorama delle infrastrutture digitali critiche in rapida evoluzione: possiamo aiutare le aziende a preparare i loro sistemi per affrontare i progressi tecnologici futuri.


L'AI sta inevitabilmente riscrivendo il futuro dell'infrastruttura IT. Scarica il nostro whitepaper: offre le conoscenze e gli strumenti necessari per affrontare le complessità dell'AI nell'infrastruttura IT. Per ulteriori informazioni sui prossimi cambiamenti determinati dall'AI per l'infrastruttura digitale critica, esplora il Vertiv™ AI Hub.

Scarica il whitepaper

Documento senza titolo
martin_olsen

Martin T. Olsen
Senior Vice President, Global Product Strategy, Vertiv

Martin è responsabile della strategia e della pianificazione globale dei prodotti; promuove l'interoperabilità della roadmap dei prodotti per fornire soluzioni complete, ambiti di investimento, valutazione e assegnazione delle priorità nelle business unit globali di Vertiv ed elabora la pianificazione e la strategia aziendale globale in ambito ER&D.

Martin, in Vertiv dal 2017, ha ricoperto varie posizioni dirigenziali in diversi ambiti: ingegneria, strategia e pianificazione aziendale. Ha oltre 20 anni di esperienza con fornitori globali di infrastrutture critiche e tecnologie del settore dei data center; in precedenza ha avuto ruoli dirigenziali in Schneider Electric, Eaton e Active Power a Singapore, in Germania e in Danimarca, con incarichi nella gestione dei prodotti, nell'ingegneria, nelle vendite e nel marketing. In collaborazione con HPE, Martin ha diretto la progettazione e lo sviluppo iniziali di data center modulari implementati su larga scala durante il suo periodo in Active Power.

Martin, originario della Danimarca, ha registrato diversi brevetti per soluzioni di gestione termica negli Stati Uniti e ha conseguito una laurea in Marketing e Business Analytics presso l'università di Syddanmark, a Kolding, in Danimarca; ha completato il programma di gestione generale dello stato degli ex studenti della Harvard Business School.

PARTNER
Presentazione
Login dei partner

Lingua & Ubicazione