Ultimamente, per ragioni professionali e per interesse personale, mi sto appassionando al mondo dei big data, dell’intelligenza artificiale e del machine learning. Un mondo che è già qui, è il mondo che viviamo e che sempre di più vivremo di qui in avanti.

Ma cosa sono, alla fine, questi big data?

I dati sono oggi, semplicemente, una materia prima, un input economico di vitale importanza, utilizzato per creare una nuova forma di valore. E i big data, in particolare, possono e devono essere riutilizzati in modo intelligente per trasformarli in una fonte di innovazione e nuovi servizi.

Sono state per prime l’astronomia e la genomica, intorno agli anni 2000, a sperimentare l’esplosione dei dati, e da lì hanno coniato il termine big data. L’espressione designa analisi che possono essere svolte su larga scala, per estrapolare nuove indicazioni o creare nuove forme di valore, in modalità che modificano i mercati, le organizzazioni, le relazioni tra cittadini, tra cittadini e governi, e molto altro ancora.

L’era dei big data, quella in cui ci troviamo immersi, ha messo in discussione il nostro modo di vivere e di interagire con il mondo.

Perché con la mole di dati a disposizione non abbiamo più bisogno di capire il perché, ma solo il cosa.

Prima che le tecnologie digitali ad alta intensità di calcolo prendessero piede, infatti, eravamo abituati a lavorare “a campione” (lo facciamo anche adesso, in molti casi). E non consideravamo il campionamento una costruzione artificiale: lo davamo quasi sempre per scontato. In effetti, però, il campionamento era il prodotto di un’era caratterizzata da forti vincoli all’elaborazione delle informazioni, in cui le persone certamente ambivano a misurare il mondo, ma in cui la raccolta dei dati era laboriosa, lunga e molto onerosa anche in termini economici. E, una volta completata la raccolta dei dati, la loro analisi lo era almeno altrettanto.

Oggi, invece, tutti i problemi di calcolo ed elaborazione sono scomparsi e abbiamo a disposizione enormi quantità di numeri, dati, informazioni. Solo che, spesso, non sappiamo bene che farcene, perché nonostante possediamo ormai tutti gli strumenti tecnologici per la loro gestione, i nostri metodi di indagine e la nostra mentalità si stanno adattando molto più lentamente.

Usare tutti i dati a disposizione, anziché solo un campione, infatti, ci permette di vedere dettagli che non avremmo mai notato quando eravamo costretti a esaminarne quantità limitate. I big data ci danno l’opportunità di creare e di osservare sottocategorie e sottosegmenti, sviluppando una struttura granulare dell’informazione che i campioni, semplicemente, non sono in grado di evidenziare.

Ed ecco che questa struttura granulare, che si manifesta in correlazioni prima non evidenti o non evidenziabili, parla senza che noi dobbiamo necessariamente porre domande. O ipotizzare nessi causali tra le informazioni sulla base di un cluster di dati limitato.

I big data riguardano il cosa, non il perché.

Non sempre è necessario conoscere la causa di un fenomeno per affermare di comprenderlo; possiamo anche limitarci a lasciare che i dati ci mostrino le correlazioni tra elementi e parlino da soli.

E quando i dati parlano, spesso sono anche in grado di fare previsioni. Di fatto, è questo l’aspetto veramente interessante di quella che chiamiamo intelligenza artificiale. Essa, infatti, non va intesa come quella disciplina che ha come unico obiettivo quello di insegnare ai computer a pensare come gli esseri umani, tagliandoci fuori dal governo del pianeta per come lo conosciamo. Quella è una applicazione affascinante certo ma, diciamo così, di là da venire e, certamente, di dimensioni più contenute. Oltre ad essere, sempre e comunque, una nostra scelta.

L’aspetto più interessante della AI, invece, ora come ora, è certamente dato dalla possibilità di applicare principi matematici a enormi quantità di dati per dedurre le probabilità che alcune situazioni si verifichino. Quali? Ad esempio la propensione all’acquisto dei prodotti, le analisi dei gusti dei consumatori, le analisi dei rischi, le previsioni dei guasti in ambienti industriali e non, l’ottimizzazione dei tragitti, pianificazione del lavoro ecc.

Questi sistemi, che ormai permeano grande parte della nostra vita quotidiana, da quando cerchiamo qualcosa online a quando utilizziamo assistenti virtuali per mettere un po’ di musica che ci faccia stare bene, funzionano perché sono alimentati da enormi quantità di dati su cui baseranno le loro previsioni. E sono costruiti per migliorarsi nel tempo mantenendo una registrazione automatica dei segnali e delle tendenze più affidabili da monitorare man mano che nuovi dati vengono inseriti a sistema.

La vera rivoluzione non è nelle macchine che elaborano i dati, ma solo nei dati stessi e nel modo in cui li utilizziamo.

Ecco perché i big data hanno anche modificato radicalmente il modo di fare business. Se nel secolo scorso il valore si era spostato da infrastrutture fisiche come terreni e fabbriche a elementi immateriali come marchi e proprietà intellettuale, questa tendenza alla dematerializzazione si è ora estesa ai dati. Essi stanno diventando sempre più un asset aziendale di primaria importanza, un input economico vitale, la base di nuovi modelli di business e rappresentano il carburante dell’economia dell’informazione.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.