Machine Learning Operations (MLOps): l’Intelligenza Artificiale entra nel DNA delle organizzazioni
L’utilizzo di applicazioni di Artificial intelligence continua a crescere nelle organizzazioni. Dall’ultima survey dell’Osservatorio AI emerge un aumento del numero di grandi organizzazioni che hanno all’attivo progetti di AI (59% dei rispondenti) e del numero di progetti di AI che svolge ogni singola organizzazione (il 28% di chi usa l’AI, ovvero quasi 1 su 3, dichiara di avere in corso 5 o più progetti di AI).
Stiamo entrando in una nuova fase di adozione dell’Intelligenza Artificiale, in cui si passa da un utilizzo dell’AI di tipo «sperimentale» per risolvere use case specifici e puntuali, ad un utilizzo più strutturato: per molte organizzazioni l’AI sta gradualmente diventando un asset e una capability da spendere su molti fronti. In questo nuovo scenario, le organizzazioni si interrogano su come organizzare al meglio le attività che portano a sviluppare e utilizzare applicazioni di AI.
E’ cosi che nasce il Machine Learning Operations (MLOps), ovvero, un insieme di pratiche che combina la realizzazione di modelli di Machine Learning, il DevOps e la Data Engineering, con lo scopo di sviluppare, rilasciare, monitorare e scalare in produzione sistemi di ML di alta qualità, facendo leva su aspetti organizzativi, culturali e tecnologici che favoriscano il governo e l’automazione del ciclo di vita dei modelli di ML. (definizione dell’Osservatorio Artificial Intelligence).
Alessandro Palladini, Data Scientist di Data Reply, spiega che MLOps migliora i rilasci in produzione dei modelli di ML grazie alle “pipeline di Continuous Integration e Continuous Deployment, consentendo inoltre di monitorare continuamente le performance del modello e i dati in arrivo per evitare data drift, e riallenare automaticamente il modello qualora vengano rilevate anomalie o semplicemente qualora si desideri avere un modello allenato su dati più aggiornati”.
E’ possibile concettualizzare un framework MLOps in 3 macro-fasi:
- Una prima macro-fase di Business Understanding, dove viene inquadrato il «problema» da risolvere e vengono definiti di conseguenza gli obiettivi, i requisiti e i risultati attesi dal modello di ML da implementare.
- Una seconda macro-fase di Data & Model Preparation, dove vengono raccolti i dati per allenare il modello di ML e vengono svolti diversi esperimenti per selezionare il modello di ML più performante per risolvere il problema.
- Una terza macro-fase di Continuous Operations & Improvement, dove vengono svolte in modo automatizzato e continuo diverse operazioni: lo storage di nuovi dati e l’aggiornamento del modello (Continuous Training); la costruzione, l’integrazione e il rilascio dei modelli di ML (Continuous Integration / Continuous Delivery); il monitoraggio delle performance del modello per intercettare cambiamenti (Continuous Monitoring).
Ci si muove quindi verso un paradigma in cui l’organizzazione impara a gestire le applicazioni di AI come strumenti che fanno parte del proprio DNA: l’AI non è più un esperimento, ma una capability endemica all’organizzazione stessa, che viene utilizzata in diversi prodotti, servizi e processi interni.
Tale cambiamento necessita di un’adeguata struttura metodologica supportata da adeguate piattaforme software (MLOps platforms). L’importanza della tecnologia emerge chiaramente dalla ricerca dell’Osservatorio: il 67% delle aziende che praticano MLOps ha già adottato piattaforme tecnologiche a supporto dell’intera pipeline o di una parte di essa, e un ulteriore 25% di aziende dichiara che introdurrà queste piattaforme, per un totale di oltre il 90%.
Come afferma Valerio Rizzo, EMEA Head of AI di Lenovo, “tali piattaforme, contribuiscono a velocizzare e snellire le fasi di sviluppo della pipeline di apprendimento automatico, semplificando l’accesso e l’utilizzo di risorse computazionali complesse, ottimizzandone l’utilizzo, e consentendo a professionisti con livelli di esperienza e competenze diverse di collaborare in maniera efficiente, evitando frammentazioni della pipeline e la compartimentazione dei processi, spesso causa principale di molti fallimenti dello sviluppo di progetti AI nelle aziende”.
MLOps contribuisce a standardizzare le pipeline di ML, rendendo più semplice la collaborazione tra tutte le parti coinvolte. Ad esempio, dice Filippo Minutella, Chapter Lead of AI di Larus Business Automation, “analizzando un Feature Store, strumento fondamentale che permette di monitorare più versioni dei dati, si ha: il Data Engineer che si occupa di definire le pipeline necessarie per il recupero e il preprocessing dei dati, il Data Scientist che si occupa di utilizzare tali dati per le varie sperimentazioni ed infine il Machine Learning Engineer che si serve sempre di questo strumento per ottenere i dati necessari per far lavorare i vari algoritmi in produzione.”
Tra i benefici maggiormente citati dalle aziende che utilizzano MLOps troviamo, nell’ordine, un miglior aggiornamento dei modelli, un miglior monitoraggio del funzionamento dei modelli stessi, un aumento di qualità dei modelli rilasciati, un aumento della frequenza dei rilasci in produzione e una maggior collaborazione tra i team di progettazione, sviluppo e gestione dei modelli.
Tra gli ostacoli all’adozione troviamo in particolare aspetti organizzativi: la mancanza di tempo da dedicare all’AI rispetto alle attività di business tradizionali, la mancanza di competenze interne e la scarsa chiarezza organizzativa di ruoli e responsabilità.
A cura di
Michele Zanelli
Ricercatore all’interno dell’Osservatorio Artificial Intelligence del Politecnico di Milano e Information & Data Governance advisor. Lavora su metodologie e modelli per ottimizzare la gestione dei dati per garantirne qualità, sicurezza e compliance.
Nataliia Roskladka
Artificial Intelligence, Supply Chain PlanningRicercatrice Osservatorio Artificial Intelligence e dell'Osservatorio Supply Chain Planning
Siamo a tua disposizione per informazioni e assistenza
Martina Vertemati
Acquisti e abbonamenti Da Lunedì al Venerdì, dalle 09 alle 18Alessia Barone
Assistenza Da Lunedì al Venerdì, dalle 09 alle 18Scopri altri contenuti di Artificial Intelligence