Scritto da:
Scritto il:
28 Aprile, 2022

Con “intelligenza artificiale” (“Artificial Intelligence”, “AI”) si intende la capacità, da parte di un calcolatore, di replicare i meccanismi della mente umana, in particolare quelli legati all’apprendimento: un algoritmo di AI è infatti in grado di individuare dei pattern caratteristici (tipicamente relazioni causa-effetto) all’interno di un determinato set di dati (dataset di addestramento) rappresentativi di un fenomeno, e utilizzarli per trarre delle conclusioni valide in generale (procedimento induttivo).

La prima volta in cui mi sono occupato di AI è stato all’università, nell’ambito di un corso di ricerca operativa: l’argomento mi affascinò a tal punto che decisi di trattarlo nella mia tesi di laurea, approfondendone le possibili applicazioni nell’ambito del processo previsionale (forecasting).

Una volta entrato nel mondo del lavoro, partecipando a progetti di implementazione di sistemi a supporto della pianificazione in aziende manifatturiere ho constatato che l’impiego di modelli di AI per il forecasting è un fenomeno in crescita anche nel supply chain management: la capacità degli algoritmi di AI di elaborare automaticamente dati di storico relativi a determinati fenomeni al fine di identificare un legame con una variabile significativa (domanda di prodotto, evento di guasto su una linea di produzione, lead time di consegna del fornitore, …) permette di anticiparne il comportamento anziché rilevarlo a posteriori (come avviene utilizzando metodi di previsione statistici basati sull’analisi delle serie storiche). La previsione che si ottiene è quindi più reattiva e più accurata [1].

A.I. e diffusione nelle aziende

Nonostante l’interesse delle aziende verso l’AI sia crescente, alcuni aspetti ne ostacolano la diffusione su larga scala. In particolare, un problema ricorrente è la limitata disponibilità di dati funzionali all’utilizzo degli algoritmi di AI, sia in termini di numerosità che di effettiva utilità dei dati a disposizione rispetto all’applicazione di interesse.

A tal proposito, ho trovato interessante un recente articolo di McKinsey  [2], in cui si sostiene che, sebbene sia generalmente vero che un elevato volume di dati a disposizione per addestrare modelli di AI ne aumenti le prestazioni, è comunque possibile, adottando quattro strategie, applicare con successo modelli di forecasting basati sull’AI anche in situazioni in cui si ha un numero limitato di dati disponibili.

1. Recuperare dati da fonti esterne

Secondo la società IDC (International Data Corporation), nel 2020 sono stati creati (o replicati) 64,2 triliardi di byte di dati [4]. Tali dati includono e-mail, messaggi, chiamate (audio e video), post sui social, pagine web, transazioni finanziarie, immagini dai satelliti, e in generale tutti i dati raccolti da qualsiasi oggetto connesso alla rete (Internet of Things).

Una parte di questi dati è messa a disposizione (gratuitamente o a pagamento) dalle piattaforme che hanno provveduto a raccoglierli, e potrebbe essere utilizzata per arricchire il dataset di addestramento di un algoritmo di AI per aumentare il contenuto informativo.

Ad esempio, un fondo di investimento potrebbe utilizzare i dati del traffico veicolare sulle principali autostrade di un paese per prevedere l’andamento del mercato, considerando la mobilità (soprattutto quella dei veicoli pesanti) come indicativa dello stato di salute dell’economia. Analogamente, una energy utility potrebbe impiegare i dati sulle previsioni meteo per prevedere la quantità di energia elettrica generata da fonti rinnovabili.

2. Identificare (e risolvere) eventuali anomalie nei dati

Parlando di AI, è opportuno sgombrare il campo da suggestioni fantascientifiche: per quanto negli ultimi anni i progressi siano stati notevoli (dagli assistenti vocali alle automobili a guida autonoma), siamo ancora molto lontani dai replicanti di Blade Runner.  La maggior parte dei modelli di AI inclusi nei software di forecasting disponibili sul mercato è infatti programmata per risolvere un problema circoscritto: ricavare un legame causa-effetto elaborando un dataset considerato come rappresentativo del comportamento di un certo fenomeno. Ciò implica che eventuali anomalie nei dati relative a situazioni eccezionali non vengano interpretate come tali dal modello, che le considera invece parte del regolare comportamento e dunque ripetibili in futuro.

Supponiamo di avere una serie storica della domanda di prodotto che include un periodo anomalo, in cui l’andamento è stato influenzato (in negativo) da circostanze particolari (ad esempio la pandemia da covid-19): nel caso in cui la serie storica fosse usata per addestrare un algoritmo di AI per prevedere la domanda futura, tale algoritmo considererebbe il periodo anomalo come rappresentativo del normale andamento della domanda, col risultato di sottostimare sistematicamente la previsione per i periodi futuri.

Prima di utilizzare un dataset per addestrare un algoritmo, dunque, è opportuno analizzarlo per individuare e correggere valori anomali (data cleansing), che comprometterebbero l’apprendimento del modello. La correzione dei valori anomali può essere fatta in diversi modi, ad esempio sostituendo a tali valori un valore medio, oppure il valore superiore (se l’anomalia è positiva) o inferiore (se negativa) relativi ad un range precedentemente definito come rappresentativo della normale variabilità dei dati.

3. Scegliere l’algoritmo di AI più adatto

A nessuno verrebbe in mente di correre una maratona con degli stivali da pesca, così come sarebbe poco saggio affrontare un sentiero di montagna indossando delle pantofole: in entrambi i casi, la scelta della scarpa da calzare dipende dal contesto in cui ci troviamo e dall’attività che dobbiamo svolgere.

Allo stesso modo, non esiste un algoritmo di AI ugualmente performante in qualsiasi circostanza: algoritmi più complessi, caratterizzati da un numero elevato di parametri, necessitano di un set di dati di addestramento più ampio per poter restituire dei risultati significativi; viceversa, per algoritmi più semplici, con un numero di parametri ridotto, è sufficiente un dataset più contenuto.

Il suggerimento è dunque quello di testare diversi algoritmi per lo stesso dataset, in modo da individuare quello più adatto ai dati a disposizione: in commercio esistono dei software previsionali che effettuano questo tipo di test in autonomia, verificando una serie di algoritmi su un determinato dataset e restituendo l’algoritmo più performante.

4. Valutare scenari alternativi

Nel 1996, per la prima volta nella storia una macchina (il computer Deep Blue di IBM) sconfisse un campione del mondo di scacchi in carica (il russo Garry Kasparov) in una partita con cadenza di tempo da torneo – anni dopo Kasparov, scherzando, disse di essere stato «il primo lavoratore il cui lavoro fu minacciato da una macchina».

In tempi più recenti ha suscitato notevole interesse lo sviluppo di un algoritmo di AI in grado di giocare a poker [3]: in questo caso, infatti, al contrario di una scacchiera, il tavolo da gioco non contiene tutte le informazioni necessarie per sviluppare una strategia (non si conoscono le carte in mano agli altri giocatori). Per sopperire a tale mancanza, l’AI deve quindi formulare le proprie decisioni delineando una serie (enorme) di scenari alternativi, variando ogni volta le condizioni al contorno.

L’analisi scenario (what-if) può essere applicata con successo anche nell’ambito del processo previsionale, soprattutto se relativo ad un orizzonte di lungo termine, intrinsecamente più incerto (maggiore probabilità che si verifichino eventi imprevedibili). In tal caso è possibile ridurre l’incertezza della previsione (e quindi aumentarne l’accuratezza) individuando una serie di parametri, significativi per la variabile da prevedere (ad esempio, nel caso della domanda di prodotto, il tasso di inflazione, il trend generale del mercato, l’indice di contagio del coronavirus, …), per creare diversi scenari di previsione.

In un mercato che evolve rapidamente, la capacità di effettuare previsioni accurate è un fattore critico per il successo di molte aziende, e l’impiego di modelli di AI ha può essere determinante in tal senso. Adottando opportuni accorgimenti, è possibile impiegare tali modelli anche in contesti in cui la disponibilità di dati è limitata, riducendo notevolmente la barriera all’ingresso per il loro utilizzo.

Referenze:

[1] R. Toorajipour, V. Sohrabpour, A. Nazarpour, P. Oghazi, M. Fischl, Artificial intelligence in supply chain management: A systematic literature review, 2021.

[2] J. Amar, S. Rahimi, S. Surak, N von Bismarck, AI-driven operations forecasting in data-light environments, McKinsey & Company.

[3] M. Bowling, N. Burc, M. Johanson, O. Tammelin, Heads-up limit hold’em poker is solved, 2015.

[4] IDC, Worldwide Global DataSphere and Global StorageSphere Structured and Unstructured Data Forecast, 2021–2025, 2021.

Get in touch

Iscriviti alla nostra Newsletter: ti promettiamo ogni mese un contenuto esclusivo sul mondo della Supply Chain, novità, interviste ed approfondimenti. Resta sempre aggiornato!

Download brochure

Scarica subito la brochure di JPS per conoscere la nostra realtà aziendale, le proposte che offriamo e i percorsi di formazione disponibili.