Aruba, principale cloud provider italiano e fornitore di servizi di data center, web hosting, e-mail, PEC e registrazioni di domini, ha annunciato una collaborazione con il Dipartimento di Ingegneria dell'Informazione dell'Università degli Studi di Pisa per un progetto sperimentale di machine learning e AI applicata al cloud computing.
L'obiettivo è creare una soluzione integrata per la gestione dei carichi di lavoro sulle piattaforme cloud basandosi sulla predizione delle risorse usate dalle macchine virtuali (VM).
La predizione si basa sull'analisi dei dati storici relativi alle VM e mira a ottimizzare il consumo energetico dell'hardware, garantendo al contempo i requisiti per l'esecuzione efficiente dei carichi di lavoro.
Il progetto prevede lo sviluppo di due algoritmi: il primo è un algoritmo di machine learning che si occupa della profilazione dinamica delle VM per delineare profili in base alle risorse usate storicamente; il secondo algoritmo sfrutta i profili creati per gestire l'esecuzione delle VM sull'hardware che compone la piattaforma cloud, ottimizzando il consumo energetico.
"Siamo orgogliosi di annunciare la nuova collaborazione con un istituto di prestigio come l'Università di Pisa, un passo significativo verso l'innovazione nell'applicazione pratica del machine learning all’interno dell’ecosistema cloud" ha commentato Daniele Migliorini, Head of Engineering di Aruba.
Migliorini ci ha spiegato che al momento il progetto si trova in una fase di tuning: Aruba e Università di Pisa stanno lavorando per modellare il sistema, utilizzando i dati storici per creare il modello di machine learning più adatto per le loro esigenze.
Proprio la componente di machine learning è la parte cruciale del progetto: l'algoritmo di ML deve essere il più preciso possibile per elaborare dei profili corretti in modo che il sistema riesca a distribuisre i carichi di lavoro in maniera ottimale.
Un importante vantaggio dell'algoritmo di machine learning è che è realizzato per essere general purpose e si applica quindi a qualsiasi sistema di virtualizzazione e gestione di cloud.
La collaborazione prevede l'implementazione di un proof-of-concept basato su Openstack per la sperimentazione sul campo attraverso casi applicativi.
Tra i benefici principali del progetto c'è la possibilità di poter spostare in maniera predittiva e su base storica il carico tra i nodi OpenStack, ottimizzando l'uso delle risorse sui nodi; al contempo, si garantiscono risorse adeguate alle richieste dei clienti ottimizzando i server dedicati. Infine, è possibile disporre di nodi di computazione in stand-by nel cluster OpenStack da attivare in base alle esigenze dei carichi.
Migliorini sottolinea che l'incontro tra industria e università consente un passaggio di conoscenze e tecnologie che arricchisce entrambi gli ambiti: da una parte Aruba riesce ad accedere a competenze verticali sviluppate grazie alla ricerca e ai progetti; dall'altra parte, gli universitari hanno la possibilità di toccare con mano e seguire iniziative che non sono solo teoriche, ma hanno anche applicazioni pratiche.
Le collaborazioni col Politecnico di Torino
Aruba vanta anche due importanti collaborazioni col Politecnico di Torino, attive ormai da diversi anni.
La compagnia ha avviato un progetto sperimentale col Politecnico e la fondazione LINKS per creare una soluzione di remote digital onboarding basata sull'intelligenza artificiale che ha l'obiettivo di ridurre gli errori umani durante il processo di riconoscimento da remoto.
La sperimentazione ha utilizzato tecniche avanzate di Presentation Attack Detection e Face Recognition per creare un'istanza di riconoscimento da remoto associata univocamente al soggetto identificato e conservare in modo sicuro l'evidenza del riconoscimento.
Aruba fornisce inoltre supporto a Liqo, un progetto open source realizzato in collaborazione con ArubaKube, spin-off del Politecnico di Torino, che consente di creare un continuum dinamico e virtuale su infrastrutture cloud frammentate basate su Kubernetes.
Tra i prossimi obiettivi c'è l'introduzione dell'intelligenza artificiale sulla piattaforma per implementare logiche di orchestrazione efficiente dei carichi di lavoro al fine di favorire l'uso di energie rinnovabili, minimizzando l'impatto ambientale. L'IA aiuterà inoltre a gestire l'orchestrazione di carichi di lavoro su Cyber Physical System e garantire continuità tra le piattaforme edge, fog e cloud.