Economia degli algoritmi significa utilizzare in modo industrializzato una serie di formule matematiche che, attraverso una gestione intelligente delle informazioni, aiutano a prendere le migliori decisioni di business o ad automatizzare certi processi, garantendo un notevole differenziale competitivo.

Alla base dell’economia degli algoritmi, dunque, ci sono i dati. Gli algoritmi, infatti, sono modelli matematici alimentati da una scienza avanzata dei dati (Advanced Data Science) come, ad esempio, l’Intelligenza Artificiale e il Machine Learning.

“Gli algoritmi sono passati inosservati per anni – ha spiegato Massimo Milano, Director Solutions di Tibco Software, nel corso del workshop “Trasformare i Big Data in Big Value” a Cerved Next . Negli ultimi tempi, invece, vengono associati a qualunque cosa. Esiste un’ampia letteratura su come l’uomo abbia utilizzato regole matematiche per affrontare problemi, da Pascal a Turing per citare dei personaggi illustri. Oggi la vera sfida è gestire non i dati statici ma quelli dinamici, andando a potenziare il livello delle analisi utili a creare i modelli matematici attivi 24 su 24, 7 giorni su 7, innestando un approccio più agile, capace di attingere anche a dati nuovi, in cloud o sui social ad esempio. L’augmented Intelligence, infatti, ci aiuta ad agire in funzione degli obiettivi di business e lo fa in tempo reale”.

Economia degli algoritmi e informatizzAzione

Componente chiave dell’Information technology, l’algoritmo si basa sul principio della calcolabilità: un problema è calcolabile quando è risolvibile mediante un algoritmo. Ecco perché, nell’era digitale, l’economia degli algoritmi è una chiave fondamentale della programmazione. I programmi al loro interno traducono o codificano una serie di algoritmi per risolvere determinati problemi, automatizzandone l’elaborazione. In questo conteso i problemi sono caratterizzati da una serie di dati di ingresso variabili, su cui l’algoritmo agisce per formulare la soluzione in un tempo finito.

“L’economia degli algoritmi richiede non solo agilità, scalabilità e velocità ma anche l’elaborazione di quei Critical Business Model che ci aiutano a prendere decisioni importanti – ha proseguito Milano -. Si prenda, ad esempio, l’ambito Insurance, dove gli algoritmi sono utilizzati da tempo e in modo intensivo per calcolare l’RCA in base al target, al profilo di rischio e a tutta una serie di variabili che rientrano nel computo di ogni polizza. Oggi in questo computo rientrano anche le network analysis che, incorporando i dati social, offrono informazioni aggiuntive, contribuendo alla comprensione di chi sono le persone, di cosa parlano e con chi. Utilizzando tecniche avanzate e algoritmi specifici oggi è possibile intercettare il 30% delle frodi, migliorando la qualità del business attraverso la definizione di politiche di prezzo accurate e una corretta valutazione del rischio. Il 69% degli operatori del comparto concorda sul fatto che il Machine Learning porterà grandi vantaggi nella valutazione delle richieste, riducendo il numero di reclami e il 79% delle organizzazioni è convinta di utilizzare l’Intelligenza Artificiale in tutta la contrattualistica da qui ai prossimi due anni (Fonte: Future of General Insurance Report – 2016). I canali digitali da qui a 5 anni continueranno a sostituire i canali fisici: le proiezioni degli analisti raccontano come tra il 20 e il 40% delle attività svolte dagli operatori dell’Insurance saranno digitalizzate e automatizzate. Capire l’economia degli algoritmi, dunque, richiede nuove competenze e nuove capacità di visione ma anche di organizzazione”.

Nell’era digitale i sistemi si basano tutti su una buona gestione dei dati, che diventano smart quando si traducono in azioni strategiche a supporto del business. Gli algoritmi, dunque, danno potere alle organizzazioni al punto che gli esperti hanno iniziato a parlare di algocrazia.

Economia degli algoritmi nella vita reale

Oggi i consumatori esigono semplicità e immediatezza. Non solo vogliono poter accedere in ogni momento a informazioni e servizi chiari, rilevanti e quanto più possibile personalizzati, ma si aspettano anche di ottenerli velocemente.

Il contributo dell’Intelligenza Artificiale dipenderà dalla quantità e dalla qualità dei dati analizzati e gestiti. Questi dati, strutturati e destrutturati, provenienti da varie fonti, dovranno essere preparati e combinati dagli scienziati dei dati in modo da acquisire nuove forme di conoscenza, capaci di farci comprendere anche quello che non siamo in grado di vedere.

Il problema oggi non sono tanto i dati in sé e per sé ma la capacità di riuscire ad applicare sistemi di Business Intelligence e Analytics tali da garantire approfondimenti davvero utili, modelli analitici predittivi che permettono di migliorare i sistemi decisionali nonché modelli dinamici adattivi, capaci di gestire in modalità continua lo streaming dei dati.

Il futuro è data driven

“In passato i piani sono falliti perché mancavano chiari obiettivi di business – ha ribadito Milano – ma oggi la capacità di vedere i dati nel mare magnum di tutti quelli che si hanno a disposizione è molto più che una scienza. L’80% del lavoro relativo al Big Data Management è speso nella preparazione dei dati: spesso i data scientist lavorano con fogli excel o PPT, mentre la differenza la si può fare gestendo in tempo reale il flusso continuo delle informazioni. È necessario operazionalizzare i modelli, mettendoli in azione per vedere come funzionano. Tutto questo, senza assolutizzare l’economia degli algoritmi: gli algoritmi, infatti, sono comunque una stima, un’approssimazione della verità. In statistica non esiste il modello perfetto, ma è possibile costruire modelli che riducono al minimo l’indeterminato. Il vantaggio di questa scienza è sapere che gli algoritmi degradano nel corso del tempo ed è necessario pensare di nuovi, alla luce delle nuove informazioni acquisite”.

Oggi esistono sistemi che, attraverso cruscotti in real time, sono in grado di mostrare le informazioni che servono quando servono davvero. Vengono utilizzate in modo intensivo non solo dal mondo dell’Insurance ma anche del banking, delle Telco, dell’automotive, della sanità, dell’Oil&Gas o del retail. La vera criticità è che l’intelligenza algoritmica oggi è frenata dai sistemi legacy che spesso non riescono a dialogare con questi nuovi strumenti, limitando le opportunità legate all’economia degli algoritmi. Secondo Gartner il 50% delle applicazioni saranno sviluppate tramite approcci low code (a basso sviluppo di codice) proprio in virtù dell’uso degli algoritmi.