Skip to content

Un mondo di dati pronto alla rivoluzione del 5G

Condividi su facebook
Facebook
Condividi su twitter
Twitter
Condividi su linkedin
LinkedIn
Condividi su whatsapp
WhatsApp

Articolo di Elio Masciari, La Repubblica

Oggi siamo immersi in uno scenario caratterizzato dalla continua esposizione a informazioni di ogni genere reperibili con un tocco su uno smartphone

Gli esseri umani sin dalla loro apparizione hanno manifestato un importante bisogno oltre a quelli primari strettamente legati alla sopravvivenza: quello di scambiare informazioni. Dai graffiti nelle caverne preistoriche ai post sui moderni social vi è un unico filo conduttore, la volontà di comunicare dei dati per suscitare delle emozioni, per condividere una nuova scoperta o per tramandare una tradizione perché le nostre parole, ciò che scriviamo sono dati che seguono delle regole di codifica.

Inoltre, il progresso ha subito delle prepotenti impennate ogniqualvolta è stato possibile comunicare in maniera più rapida tra gli esseri umani, perché il confronto ci spinge a migliorarci, rimediare ad errori, a cercare nuove soluzioni per problemi comuni. E’ innegabile quindi che l’evoluzione delle tecnologie a supporto dello scambio di informazioni e della loro memorizzazione abbia contribuito enormemente a tale progresso rendendo possibile l’aumento dei dati che siamo in grado di reperire e manipolare. Oggi grazie alle nuove tecnologie salite prepotentemente alla ribalta negli ultimi due decenni, siamo immersi in uno scenario caratterizzato dalla continua esposizione ad informazioni di ogni genere reperibili con un tocco su uno smartphone, fedele ed inseparabile compagno delle nostre giornate, con le relative problematiche che ciò comporta.

Siamo alla continua ricerca di informazioni per svago o per necessità. E diventiamo sempre più bravi nella nostra capacità di utilizzo di questi dati, basti pensare alla pandemia causata dal COVID-19 che ha trasformato tutti, dal top manager alla nonna hi tech, in analisti alle prese con i dati sui contagi, sulla suddivisione per regioni, l’analisi dei trend. Informazioni che si accumulano velocemente, che cambiano in maniera repentina, che provengono da fonti eterogenee, che possono contenere errori (più o meno voluti) e che alla fine ci consentono di avere il nostro tesoro informativo da condividere, discutere e commentare. In un articolo apparso su Forbes qualche anno fa si notava come tra il 2013 ed il 2015 siano stati generati più dati di quanto fatto nell’intera storia dell’umanità. Questa osservazione è ben presto diventata obsoleta perché un recente studio di IBM ha attestato che il 90% dei dati è stato generato negli ultimi due anni.

Si è arrivati così alla nascita di un termine che è ormai noto anche ai non addetti ai lavori: Big data ed il paradigma dalle tante ‘V’. Non ci si lasci infatti confondere dal termine ‘Big’, questi dati non hanno soltanto un grande Volume perché generati da 4,5 miliardi di persone connesse ad Internet, vengono alla luce a grande Velocità (5 miliardi di contenuti creati dagli utenti ogni giorno, 40.000 richieste a Google per secondo, etc.), hanno una grande Varietà di formati (testi, immagini, video) e Variabilità (le dimensioni da analizzare sono molteplici e i dati potrebbero presentare delle inconsistenze dato che la loro generazione spesso non è soggetta a validazione). E’ necessario inoltre controllarne la Veridicità per non cadere vittima di una falsa informazione. Tutte queste ‘V’ (se si effettua una ricerca sul web se ne potranno trovare anche altre ma di scarsa pertinenza in questo articolo) rendono l’analisi di questi dati particolarmente ardua ma interessante per giungere alla sesta ‘V’: questi dati consentono di creare Valore. Un valore molto alto per le persone che ne usufruiscono ma soprattutto per le aziende che li usano (il mercato del web marketing secondo i dati recenti ammonta a circa 20 miliardi di dollari). Ciò ha portato a nuove sfide per l’analisi degli ormai 44 ZettaByte (ZB) di dati (uno Zettabyte corrisponde a 1021 Byte una quantità di informazione degna della mitica biblioteca di Babele) con un tasso di crescita del 40% annuo con previsioni che stimano per il 2025 un tasso di generazione di circa 500 exabytes di dati al giorno (Fonte: IDC).

Di questa enorme quantità di dati ad oggi si riesce ad analizzare e far diventare “actionable intelligence” soltanto una piccola percentuale ed è per questo che le aziende investono pesantemente in questo campo. Nel grafico sottostante è riportato l’andamento dei ricavi relativi alla voce Big Data Analytics (Fonte: Statista).

I numeri impressionanti di questo fenomeno trovano giustificazione nel fatto che un’analisi accurata dei dati si trasforma in supporto alle decisioni che genera valore consentendo ad esempio una migliore fidelizzazione della clientela ed una migliore qualità dei prodotti e dei servizi offerti. Va rilevato che questo settore presenta un grave deficit di figure professionali adeguate, infatti la richiesta di forza lavoro stimata da Forbes è di circa 2,7 Milioni di Data Scientists.

Ma una ulteriore rivoluzione arriverà dalla ormai prossima diffusione del 5G. Si stima che entro il 2025 ci saranno 75 miliardi di dispositivi IoT connessi ed in grado di sfruttare pienamente le potenzialità di questa nuova tecnologia. In tale contesto si può affermare (confortati da numerosi studi sul tema) che le caratteristiche di estrema larghezza di banda, bassa latenza e supporto al mobile edge computing, ossia, usando la definizione comunemente accettata (Gartner), la possibilità di portare la fase di analisi sempre più vicina al “bordo” del sistema dove il dato viene prodotto (da qui il nome di edge computing), consentiranno alle tecnologie Big Data di diventare pienamente real-time e quindi in grado di generare intelligenza artificiale alla portata di tutti. Inoltre, si otterrà un effetto sinergico, da un lato l’analisi dei Big Data continuerà a supportare in modo più rapido le applicazioni di business grazie alle caratteristiche offerte dal 5G ed al contempo grazie alle funzionalità aggiuntive per gli utenti implementabili a partire dai risultati dell’analisi dei dati ne favorirà una capillare diffusione in tempi rapidi.

Si consentirà infatti agli scienziati dell’informazione di trovare sempre nuove chiavi di lettura dei dati per fornire servizi telematici prima impensabili legati alla mobilità, alla formazione, alla ricerca. Medici e biologi sperimenteranno nuove modalità di cura grazie alla telemedicina e qualche ragazzo chiuso in uno scantinato potrà realizzare qualcosa di magnifico che entrerà nella vita di miliardi di persone. Certo è necessario che la sicurezza di questi servizi sia massima e che la privacy sia rispettata in ogni sua forma, ma costruire nuove autostrade telematiche ricche di servizi utili non potrà che migliorare il nostro mondo di… dati.

Potrebbe interessarti anche...

No comment yet, add your voice below!


Add a Comment

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *