Come tutte le rivoluzioni anche quella dei dati passa attraverso una fase pionieristica in cui il valore viene creato dalle mani sapienti di chi ha alle spalle anni di esperienza sul campo.
Non ci sono scorciatoie, software preconfezionati, automatismi sviluppati che consentano di fare a meno dell’expertise di scienziati e ingegneri dei dati che si sono formati in anni di attività.
In questo senso l’analisi dei dati (data analysis) diventa una vera e propria arte, intendendo con questo un approccio quasi di tipo artigianale nella raccolta e successiva elaborazione di grandi quantità di dati.
Ci vengono certo incontro le piattaforme ‘cloud’, come quella di Amazon, i cosiddetti ‘Amazon Web Services’, che a costi molto graduali ci consentono di creare piccoli ‘Data Lake’ dove accumulare dati interni ed esterni, come le innumerevoli librerie Python, il linguaggio di riferimento in questo campo (python for data science), per sviluppare algoritmi di Intelligenza Artificiale, ma poi alla fine tutto si gioca nella capacità dei cosiddetti ‘Data Engineer’ e ‘Data Scientist’, nel combinare sapientemente questi ingredienti per sviluppare la ‘salsa segreta’ che decreterà il successo dell’azienda.
I dati sono un driver fondamentale per la trasformazione digitale delle aziende.
Saper misurare i processi in ogni settore è un fattore chiave sia per rendere più efficiente e competitivo il business, ma soprattutto per aprire nuovi scenari.
Anche se questo è un trend ineludibile a livello internazionale, è difficile capirne la portata se si guarda solamente al nostro Paese.
Siamo abituati a ragionare sul corto e medio periodo e molto spesso le aziende sono travolte dall’ordinaria amministrazione, ma sarebbe un errore non cogliere queste nuove opportunità.
Come approcciare un settore che non si domina e per il quale occorrono comunque competenze specialistiche, anche solo per capire la strada da percorrere?
Va bene l’expertise e la sapienza artigianale, ma occorrono almeno altri due ingredienti per il successo della Data Science in azienda.
In primo luogo l’approccio deve essere multidisciplinare e orientato da subito alla creazione di valore.
La chimera dello Scienziato dei Dati (data scientist) che viene assunto e da solo risolve i problemi è un grave errore da evitare.
Intanto occorre avere sin dall’inizio un approccio ingegneristico ai dati, ben prima di pensare agli ‘analytics’, cioè all’estrazione degli ‘insight’ e di dati predittivi. Molti progetti nascono con l’ambizione di utilizzare tecniche avanzate di Intelligenza Artificiale senza avere i dati necessari per alimentarle.
Data analisi dei dati e data mining per le decisioni aziendali? Ok ma le AI, senza dati, sono intelligenze morte. Quindi si deve partire con un piccolo progetto di Data Lake che sistematizzi la raccolta dei dati interni ed esterni.
Per esempio, una ‘utility’ dell’acqua potrebbe raccogliere i dati del telerilevamento dei pozzi e, combinandoli con i dati esterni delle previsioni del tempo, poter prevedere i loro livelli. Tutto questo può accadere senza dover intaccare le infrastrutture informatiche già esistenti, alle quali si chiede solo una presa dati in lettura.
I Data Lake sono già esistenti e vanno solo interrogati.
Questo è il modo giusto di cominciare un progetto di analisi dati ma è solo l’imprescindibile punto di partenza. Quello che occorre è un metodo che mitighi il rischio di un’attività per la quale ci sono pochi precedenti in azienda e che può presentare vari punti di criticità.
In questo senso possiamo parlare di una modalità che definiamo ‘Data Science as a Service’ (DSaaS).
L’idea è quella di sviluppare un progetto di dati in una modalità ‘agile’ che si sviluppa in cicli chiusi di due settimane nei quali vengono prodotti deliverable parziali, ma funzionanti.
Una delle cose importanti da stabilire è il team di lavoro. Deve essere composto da scienziati e ingegneri dei dati, ma anche da profili aziendali che abbiano la conoscenza di dominio e di processo.
In genere chi porta la conoscenza scientifica dei dati non ha la competenza di dominio e questa va raccolta all’interno della stessa azienda. Questo garantisce allo stesso tempo un’aderenza alle reali esigenze dell’azienda e un’efficacia non raggiungibile con esperti esterni.
In genere, dopo un momento iniziale di brainstorming, tipicamente una giornata di studi e di raccolta dei requisiti, si programmano 4-5 cicli di due settimane (in metodologia ‘agile’ vengono chiamati sprint) che coinvolgono questi team misti che hanno il compito di produrre risultati tangibili e di misurare il valore creato nel tempo.
Quindi non si aspettano anni, come capita nella gestione standard dei progetti, ma si verifica quasi settimana per settimana, la correttezza della strada intrapresa e l’effettiva efficacia delle soluzioni trovate.
In genere già dopo 2-3 sprint si è in grado di vedere i primi risultati, potendo decidere se cambiare strada, se non addirittura interrompere il progetto.
La metodologia DSaaS (Data Science as a Service) è quindi una garanzia per l’imprenditore in termini di affidabilità e contenimento del rischio nell’investimento e consente di sviluppare progetti avanzati, con un alto grado di innovazione, mitigando il rischio e aumentando le probabilità di successo.