Con il termine inglese Big Data (grandi dati), entrato comunemente a far parte del nostro gergo informatico, ci si riferisce letteralmente alla grande quantità di dati ed informazioni che vengono acquisite e gestite quotidianamente da società o enti. Più che l’entità di questi dati, però, ciò che attira l’attenzione è il loro utilizzo ovvero come essi possano essere analizzati in modo da estrapolare informazioni importanti per tutte quelle aziende che si occupano di statistiche ed analisi di mercato.
È dunque comprensibile come indispensabile sia la capacità di gestire questi dati, ovvero possedere degli strumenti tecnologici in grado di rendere un flusso costante di informazioni qualcosa di commercialmente e socialmente utile e fruibile.
Circa dieci anni fa, società allora nascenti come Amazon, Facebook o Google si ritrovarono con un’enorme quantità di dati da dover gestire, rendendosi ben presto conto di avere in mano un vero e proprio tesoro che non poteva di certo essere ignorato. Basti pensare al social più usato al momento, Facebook, il quale ha sviluppato la capacità di analizzare le informazioni provenienti da ogni singolo utente e dalla sua interazione con gli amici per creare un nuovo modo di fare pubblicità, finalizzata esattamente ai gusti ed alle aspettative di quel singolo utente.
Una rivoluzione nel marketing alla quale ora abbiamo quasi fatto l’abitudine ma che ha davvero rivoluzionato il modo di fare campagne pubblicitarie. Nel corso degli anni poi, la maggiore diffusione di smartphone e tablet come compagni della vita quotidiana di ogni singolo individuo ha reso ancora più incalzante l’arrivo di dati ed informazioni che vengono comunemente richiesti per svolgere anche le più semplici operazioni online. L’aggregazione di elementi di per sé insignificanti ha, quindi, un valore enorme. Basti pensare che un semplice “like” posizionato su un commento o su un prodotto e moltiplicato per migliaia o milioni di utenti, può davvero influenzare l’andamento di una azienda ed il suo sviluppo futuro.
Il concetto di Big Data, però, è tutt’altro che recente poiché se ne parla già dalla fine degli anni 90 per arrivare allo studioso Doug Laney che agli inizi del 2000 formulò la teoria delle tre V ovvero:
- Varietà: i dati arrivano in modo disomogeneo, trattandosi di foto, documenti, valori alfanumerici, video, audio e quant’altro;
- Volume; la grande quantità di dati provenienti da sorgenti differenti (social media, transazioni finanziarie, acquisti online);
- Velocità: riferita alla velocità con cui i dati affluiscono in tempo reale ed alla conseguente necessità di utilizzarli in modo tempestivo.
Per comprendere l’enorme quantità di dati che circolano in rete ogni giorno (con valori nell’ordine dei zettabyte) basti pensare al fatto che sul pianeta siamo quasi otto miliardi di persone, delle quali due terzi circa sono attivi online e, quindi, compiono periodicamente azioni che generano la produzione diretta od indiretta di informazioni che devono essere gestite in maniera adeguata. Anche i Big Data, quindi, hanno un ciclo di vita ovvero un insieme di processi che dalla loro raccolta porta, attraverso successive modifiche, al loro utilizzo passando anche dalla fase di bonifica poiché molto spesso l’insieme dei dati contiene al suo interno informazioni che non sono più utili ai fini dell’elaborazione. Le due macrotipologie di azioni alle quali vanno incontro i Big Data sono il Management ovvero la serie di processi che riguardano l’acquisizione e la memorizzazione delle informazioni e l’Analytics, l’analisi di questi dati che deve avvenire nel modo più rapido possibile.
Tutti i passi necessari nella gestione dei Big Data
Ogni utente genera dati interagendo con vari dispositivi ed attraverso piattaforme di differente tipologia. La grande quantità di informazioni deve necessariamente essere raccolta e memorizzata in modo da poter essere poi usata immediatamente oppure in successivi momenti. L’acquisizione avviene attraverso vari canali: tramite API (ovvero interfaccia di programmazione di un’applicazione) utilizzate appositamente per raccogliere dati quando si accede ad un sito, con software appositi per la raccolta di documenti, importando dati da database preesistenti oppure interpretando e estrapolando il flusso di dati che passano attraverso la rete oppure tramite i semplici cookie mediante la navigazione web. Da tutte queste operazioni ne deriva una enorme quantità di informazioni, molte delle quali non sono utili ai fini della successiva analisi. Ne consegue che essi debbano essere bonificati ovvero ripuliti da tutte quelli che non rientrano nel formato richiesto per l’elaborazione. A questo punto i Big Data devono essere stoccati ed archiviati ma qui entra in gioco il problema relativo all’enorme quantità di informazioni e per questo motivo, nel corso negli ultimi anni, sono stati studiati e realizzati sistemi in grado di immagazzinare dataset di grandi dimensioni. Si passa, quindi, all’analisi ed alla modellazione tramite sviluppo di algoritmi mirati ed alla successiva interpretazione affinché le informazioni possano risultare utili ai fini delle performance aziendali.
Come si generano i Big Data
Abbiamo accennato in precedenza come i Big Data provengano da una serie di siti e fonti molto differenti, e come essi siano per questo estremamente eterogenei fra loro, cosa che complica notevolmente l’ interpretazione successiva. Ognuno di noi, quando utilizza lo smartphone, il tablet o il PC genera, anche inconsapevolmente, una grande quantità di informazioni. I social network come Facebook, i blog, i siti che si occupano di recensioni, di vendite online (come Amazon), Instagram, Google e qualsiasi altro sito normalmente utilizzato ha la capacità di registrare ogni singola azione compiuta da un utente per poi indirizzarla nelle ricerche future. A tutti sarà capitato di fare una semplice ricerca e di vedersi riproporre nei giorni successivi, sotto forma di pubblicità, pop-up e quant’altro, informazioni direttamente o indirettamente collegate a quella ricerca.
Appare chiaro che la gestione dei Big Data, conseguenza dell’impatto massivo dell’informatica e delle nuove tecnologie sulla vita quotidiana, ha modificato e sta modificando radicalmente la nostra società ed il modo di concepire il business. Si tratta, forse, di una rivoluzione silenziosa e sconosciuta alla maggior parte degli utenti di internet, o meglio è un evento che sembra essere al di fuori del nostro campo di interesse mentre è destinato a modificare gli stili di vita in modo molto incisivo.
Quali sono in definitiva i dati di cui parliamo? Basti pensare che inserire una fotografia, mettere un “like”, fare una ricerca su google, acquistare un prodotto, lasciare una recensione o semplicemente navigare nel web significa già generare una grande quantità di informazioni che, per essere commercialmente utili, devono essere analizzati. Per far questo, però, è chiaro come siano necessari computer sempre più capaci sia nella potenza della CPU, per una maggiore capacità elaborativa, sia nelle memorie di massa; esiste inoltre un ultimo elemento fondamentale per la creazione e la fruizione di questa enorme mole di dati: gli algoritmi.
Algoritmi, Big Data ed Intelligenza Artificiale
Gli algoritmi sono per definizione quell’insieme di passi od istruzioni che consentono la risoluzione di un problema; nel caso dei Big Data gli algoritmi vengono creati per poter consentire uno studio del flusso dei dati, la loro analisi ma soprattutto il loro confronto, come un vero e proprio reticolo neuronale, al fine di estrarre il risultato cercato. È per questa ragione che devono essere sempre più parametrici, multilivello e precisi. Gli algoritmi sono l’essenza stessa della progettazione nell’informatica e nella programmazione ed ingegneri e matematici sono continuamente rivolti alla realizzazioni di modelli sempre più performanti in grado di velocizzare processi decisionali ed analitici. I Big Data, infatti, non avrebbero alcun valore se non fosse possibile analizzarli ed estrapolare informazioni fondamentali per studi futuri e questo può essere fatto solo utilizzando gli algoritmi che sono ormai entrati di prepotenza nelle scelte aziendali, non solo per quanto riguarda il marketing ma anche per la produzione, la manutenzione e perfino per la selezione del personale. Non c’è davvero nulla che la tecnologia non possa fare dal momento che le macchine rispetto agli esseri umani hanno la possibilità di analizzare una grande quantità di informazioni in tempi brevissimi senza possibilità di errori se le informazioni inserite sono, a loro volta, non inquinate ed attendibili.
Ecco, quindi, che negli ultimi anni il termine “intelligenza artificiale” si è imposto anche nel campo del marketing. Con tale termine si intende la capacità di far svolgere alle macchine delle funzioni che sono tipiche dell’intelligenza umana (come ad esempio il riconoscimento del linguaggio, di suoni o immagini) e di apprendere dalle esperienze. Una parte dell’Intelligenza artificiale riguarda il Machine Learning ovvero la capacità delle macchine di risolvere problemi dando loro gli strumenti per apprendere autonomamente la metodologia corretta per operare. Attualmente l’Intelligenza Artificiale viene in aiuto dell’uomo in vari settori e con differenti metodologie. Fra queste vi è, ad esempio, la realtà aumentata da utilizzare solo con dispositivi mobili e che permette all’utente di vivere delle esperienze uniche, come nel caso di alcuni giochi sviluppati da aziende per promuovere l’acquisto di prodotti o la possibilità di vedere l’effetto di un mobile in un ambiente della propria casa prima di comprarlo.
Le Recommendation Engine sono altri aspetti dell’Intelligenza Artificiale che riescono ad intuire le preferenze dell’utente in modo da personalizzare gli annunci e le informazioni che verranno mostrati. Le Gbl, infine, sono assistenti virtuali che possono interagire con il cliente tramite chat e che soprattutto sono utilizzabile dalle aziende h24 senza necessità di costi aggiuntivi. Le aziende stanno puntando su un suo massiccio coinvolgimento in tutti gli ambiti aziendali strategici ed anche le scelte di marketing di un brand sono supportate dall’accesso ai dati, permettendo così una sempre maggiore personalizzazione dei prodotti. Si stima, infatti, che entro la fine del 2018 circa l’80% degli sviluppatori avrà inserito un tool di intelligenza artificiale in almeno una delle applicazioni adottate nelle aziende. Il campo di applicazione, del resto è davvero infinito dal momento che si va dal campo medico, allo studio di testi complessi, dalle biotecnologie alla ricerca di fonti alternative di energia.
Il Data Management ed Apache Hadoop
Al giorno d’oggi l’analisi dei dati non può essere affrontato con le stesse metodologie utilizzate in passato poiché gli scenari sono cambiati, gli utenti sono cambiati ed il Data Management non può prescindere da alcune considerazioni di base. Per prima cosa le fonti dalle quali hanno origine i Big Data e delle quali abbiamo ampiamente parlato sono in continua evoluzione e quindi un sempre maggior numero di informazioni arrivano e devono essere analizzate in maniera rapida e precisa individuando anche le nuove fonti per includerle nelle piattaforme di Management. Una volta identificati i dati, questi vanno presi nella loro interezza ed archiviati poiché ciò che può sembrare inutile sul momento, in una seconda analisi potrebbe risultare estremamente importante ai fini di una valutazione. Va da sé che la mole di dati da gestire è davvero immensa e fino a pochissimi anni fa era impensabile poterla gestire rapidamente ed a bassi costi.
Ora questo non è più un’utopia grazie a nuove tecnologie come Apache Hadoop, la chiave di volta per operare con i Big Data immagazzinando le informazioni a prescindere da quando esse verranno usate. Si tratta di un software open source che permette di gestire i dataset di grandi dimensioni permettendo di fatto l’archiviazione nel tempo di una grande quantità di dati. Apache Hadoop è stato realizzato per scrivere applicazioni che elaborano dati in parallelo su cluster formati da migliaia di nodi senza perdere in affidabilità. Per raggiungere questi obiettivi Hadoop è stato creato, a differenza di altri sistemi, per immagazzinare grandi quantità di dati ma ottimizzando le attività di archiviazione.
Esso dispone di librerie che permettono la suddivisione delle informazioni da elaborare direttamente sui nodi di calcolo ed in questo modo riduce sensibilmente i tempi di accesso perché non sono necessari trasferimenti in rete. Si tratta di un software molto versatile ed affidabile poiché le criticità vengono gestite direttamente sui nodi di calcolo. In questo scenario l’utilizzo di Big Data appare più attuabile anche nell’ambito di aziende che non possono contare su un budget elevato, come avveniva fino a qualche anno fa.
Una volta immagazzinati i dati, la loro analisi non è finalizzata alla sola creazione di un report o di un grafico ma è necessario calare le informazioni ottenute nella realtà di quella determinata azienda di quel determinato individuo per aiutarla nei processi decisionali ma per riuscire in questo obiettivo sono necessarie nuove professionalità e nuove competenze come nel caso dei cosiddetti “data scientist” ovvero esperti in grado di elaborare specifici algoritmi che non forniscano analisi banali ma che siano in grado di sostenere in modo reale la competitività di un’azienda. Le piattaforme di stoccaggio dei Big Data devono dotarsi di tool e funzionalità in grado di utilizzare le informazioni al momento opportuno poiché anche se può sembrare ovvio, la fruizione dei dati non è così immediata come sembra e la maggior parte delle volte essi vengono confinati in database “standing alone” che difficilmente dialogano fra loro e che quindi rendono impossibile l’interfacciamento e la condivisione delle informazioni.
Il Data Scientist, nuove opportunità dall’economia digitale
Una nuova figura professionale, quella del Data Scientist, si sta sviluppando per rendere lo studio dei Big Data sempre più rispondente alle necessità delle aziende. Per far questo è necessario conoscere alcuni linguaggi di programmazione e possedere delle conoscenze senza le quali non sarebbe possibile approcciarsi a questo mondo in espansione. I linguaggi principalmente usati al momento sono R e Python. Il primo è un linguaggio specifico per l’analisi statistica dei dati. È un software open source con licenza GNU GPL disponibile per gran parte dei sistemi operativi. Si tratta di un linguaggio orientato agli oggetti specifico per la manipolazione dei dati, il calcolo e la visualizzazione e grazie alla sua versatilità è stato da subito particolarmente apprezzato da tutti coloro che operano in questo campo.
Python è un altro linguaggio orientato ad oggetti usato per vari tipi di sviluppo software, con una libreria molto ricca che lo rende adattabile ad una grande quantità di situazioni. Fra i linguaggi di sviluppo va menzionato anche Scala, più recente rispetto ai primi due ma anch’esso orientato agli oggetti. Esso è stato realizzato per interfacciarsi con la piattaforma Java 2 Runtime Environment (JRE) permettendo l’integrazione con componenti ed applicazioni java.
Altri utilizzi dei Big Data
Fin’ora si è parlato di Big Data principalmente per il loro ruolo nell’ambito del marketing e delle scelte aziendali sul mercato globale ma in realtà il loro impiego in altri settori è altrettanto importante e prevede uno sviluppo futuro ancora più incisivo e determinante. L’Agenda Digitale Europea si pone come obiettivo l’utilizzo dell’informatica e delle nuove tecnologie per innovare anche la Pubblica Amministrazione ed in Italia si sta lavorando proprio per ottimizzare le risorse a disposizione della PA condividendo le informazioni a vantaggio del cittadino. Tutto questo è rivolto ad progressivo sviluppo economico, alla trasparenza, alla sburocratizzazione ed allo snellimento dei processi decisionali, il tutto senza mai perdere di vista la protezione dei dati personali utilizzati per questo scopo.
Il fine ultimo al quale è necessario arrivare e per il quale la Pubblica Amministrazione sta attualmente lavorando è la creazione di un’unica struttura centralizzata di Big Data in modo da evitare duplicazione o perdita significativa di informazioni. In questo modo sarà possibile valorizzare la grande quantità di dati in possesso delle PA traslando l’esperienza vincente del settore privato e commerciale in un ambito pubblico ed al servizio del cittadino. Un altro importante campo di applicazione dei Big Data è quello medico. Grandi passi nel campo del sequenziamento del genoma umano vengono fatti grazie alla bioinformatica solo perché può utilizzare i dati provenienti da miliardi di individui. L’archiviazione di queste informazioni con sistemi superveloci di aggregazione e l’utilizzo del cloud per la conservazione dei dati rendono possibile una enorme quantità di operazioni.
L’analisi dei dati infatti permette di studiare le sequenze del DNA per prevedere l’insorgenza e l’evoluzione di malattie creando modelli matematici in grado di realizzare diagnosi precise e cure mirate. In tutto questo l’intelligenza artificiale gioca un ruolo fondamentale nella comparazione di milioni di cartelle cliniche, sulla creazione di farmaci a seguito dell’analisi dei Big Data e sulla simulazione del loro effetto sul DNA.
L’utilizzo dei Big Data nelle piccole e medie imprese
Recenti studi hanno dimostrato come più dell’80% delle piccole e medie imprese abbiano sviluppato degli strumenti per utilizzare i big data, avendone compreso l’importanza per aiutarli a migliorare la qualità dei prodotti, ampliare le loro opportunità di business ed accelerare il potere decisionale. Tuttavia il principale scoglio è rappresentato dalle limitate risorse economiche da utilizzare per tale analisi e per l’individuazione e lo sfruttamento delle informazioni più rilevanti ai fini dell’attività aziendale. Il budget ristretto rappresenta un limite che a volte sembra insormontabile, anche se esistono delle semplici regole da seguire che permettono anche alle medie imprese di utilizzare i dati per migliorare il proprio business senza impiegare somme troppe elevate.
Per prima cosa è necessario costruire un “business case” ovvero focalizzare la propria attenzione su quale obiettivo sia necessario raggiungere per migliorare l’attività ottimizzando in questo modo anche la scelta e l’analisi dei dati utili senza perdere improduttivamente risorse importanti. Nelle vendite, ad esempio, è fondamentale lo studio del precedente comportamento del possibile cliente così da proporre articoli mirati che quel cliente molto probabilmente comprerà in un periodo di tempo piuttosto ristretto. Un altro aspetto da considerare è la “collaborazione” all’interno di un azienda. Molti studi hanno dimostrato, infatti, che i maggiori risultati sono stati raggiunti in tutte quelle realtà dove si è stabilita una stretta relazione tra le differenti aree. Il manager non può prescindere dalla figura del responsabile IT, così come questi deve convincere i dirigenti aziendali della bontà delle proprie scelte nell’ambito dell’analisi dei dati.
La maggior parte delle aziende affidano l’analisi dei big data ad esperti esterni in grado di elaborare ed eseguire sofisticate ricerche. Questo è senz’altro utile ma implica un investimento elevato che non tutte le aziende sono in grado di sostenere. È importante comprendere, invece, come sia possibile utilizzare le informazioni con l’impiego di gruppi di lavoro interni senza intermediari poiché tutti i dati necessari sono già a disposizione dell’azienda e sarà sufficiente individuarli per sfruttarli al meglio. In questo processo viene in aiuto la tecnologia che propone un’ampia gamma di soluzioni IT fruibili anche dai non addetti ai lavori. In questo modo sarà possibile, ad esempio, analizzare in modo sistematico i dati per estrapolare quelle variabili che sono correlate ai risultai attesi e trarne così un vantaggio. Creare dei report e delle schede facilmente condivisibili, dei grafici di vario genere in modo da incrociare i dati e fornire soluzioni soddisfacenti che vanno molto oltre i normali fogli di calcolo ma per le quali non è richiesta una formazione specifica.
Velocità è la parola chiave in questo tipo di business. Ciò non riguarda solo l’area IT poiché la rapidità nella visualizzazione delle informazioni ha delle applicazioni molto pratiche come, ad esempio, un netto vantaggio sui propri competitor che altrimenti potrebbero determinare una perdita di clienti riducendo la quota di mercato. I sistemi lenti ostacolano purtroppo l’importanza che deriva dalla visualizzazione dei dati. Per gestire in modo intelligente i costi, è utile investire sul cloud. Infatti una media azienda non deve necessariamente dotarsi di strumenti hardware e software particolarmente costosi per la gestione dei big data ma potrà utilizzare soluzioni basate sul cloud con un’implementazione rapida e senza sostenere oneri aggiuntivi che vadano a gravare sul budget IT.
La sfida che da decenni propone il marketing è quella di unire un prodotto adeguato al cliente adeguato nel momento adeguato e con il prezzo che il cliente possa ritenere adeguato. Questa equazione non è cambiata ma con l’evoluzione dell’informatica si è modificata la capacità di definire nel modo più dettagliato possibile ogni singolo elemento di questa definizione. Il cliente, ad esempio, era indicato solo in base all’età, al sesso, alla localizzazione geografica o al reddito mentre adesso può essere individuato con decine di altri target che prendono in considerazione aspetti fino a pochi anni fa del tutto sconosciuti ed ignorati. Tutto ciò determina una profilazione sempre più accurata che porta ad inserire nello studio altri fattori come la preferenza per un colore, la stagionalità degli acquisti o l’attenzione a determinati aspetti (prezzo, caratteristiche del prodotto, provenienza, etc).
Tutte queste informazioni possono essere facilmente riportate su grafici visuali i cui dati sono incrociati ed analizzati per un analisi sempre più dettagliata. Mantenere alta la qualità è uno degli obiettivi fondamentali per la buona riuscita del progetto di analisi. Purtroppo è un parametro non facile da gestire poiché le variabili che possono intervenire in itinere sono moltissime soprattutto in considerazione di tutti i possibili errori che entrano in gioco nella selezione e dell’elaborazione successiva dei dati. Un aspetto importante che le medie imprese devono quindi sempre considerare è quello di porre particolare attenzione alla qualità dei dati che vengono inseriti nel processo.
Implicazioni sociali e privacy
L’innovazione tecnologica ha determinato un livello di raccolta dati mai registrato in precedenza e ciò è destinato ad aumentare in modo esponenziale in considerazione degli ulteriori sviluppi di Internet, della realtà aumentata e della robotica. Basti pensare che tutta la nostra vita, ormai, passa attraverso l’uso delle nuove tecnologie: dai giochi all’informazione, dai complessi sistemi industriali alla sanità tutto è entrato a far parte del mondo digitale. Le aziende per competere nei mercati globali devono sviluppare tecnologie sempre più innovative ed in questo momento il vero tesoro in loro possesso è rappresentato dai dati degli utenti.
Solo chi possiede una grande quantità di dati può realizzare analisi sempre più approfondite e sofisticate ed in ultima analisi riesce ad avere un potere crescente che va ad impattare sulle scelte di mercato ma anche su scelte rilevanti della vita collettiva. Una domanda appare quindi fondamentale: tutto questo è democratico? Le ultime vicende di attualità legate allo scandalo nell’utilizzo di informazioni personali per indirizzare le scelte politiche degli elettori hanno, forse per la prima volta, acceso i riflettori su un problema di enormi dimensioni legato alla tutela della privacy del singolo individuo ma la dimensione globale della questione la rende anche di difficile soluzione. Ci si è resi conto di quanto siamo vulnerabili. La libertà è insidiata in ogni momento dal controllo esercitato in modo discreto, ma continuato, dalle aziende che hanno in mano la nostra stessa esistenza ma soprattutto la nostra esperienza perché noi stessi abbiamo il bisogno costante di condividere ogni istante della nostra giornata sul mondo virtuale di internet.
La protezione dei dati, quindi, assume un ruolo di primo piano in questa nuova economia fatta di interconnessione legata allo sviluppo esponenziale della rete ed a tutta una serie sensori legati ad un enorme flusso di informazioni. Ogni Autorità europea competente in materia di protezione dei dati sta studiando questo fenomeno in modo puntuale e dettagliato in modo da stabilire dei limiti di natura etica e giuridica all’uso indiscriminato di dati e per tutto ciò che riguarda la loro raccolta, la conservazione e l’analisi.
L’alba di una nuova economia
È chiaro, anche per quanto detto fin’ora, che siamo in un momento di radicali cambiamenti ed in una rivoluzione basata sul valore dei dati in possesso di poche aziende che per questo motivo detengono un potere potenzialmente enorme. Negli ultimi anni è stata prodotta una quantità di informazioni mai creata in tutte le civiltà che ci hanno preceduto, un mondo che è in continua evoluzione e cambia con una velocità difficilmente prevedibile. In questo scenario si va delineando una economia nuova, che deve monetizzare questo flusso di dati ed il cui potenziale è stato intuito da molte aziende ma che in poche sono in grado di sfruttare appieno.
È il caso di Google, nato come semplice motore di ricerca e diventato negli anni una macchina che non solo immagazzina informazioni provenienti dalle ricerche e dalle navigazioni effettuate tramite Chrome, ma è anche in grado di conoscere ogni gusto, preferenza politica o interesse. Poiché questa idea è risultata vincente si è diffusa fino a diventare la base dell’intera economia digitale. Netflix, ad esempio, ha creato una serie televisiva (House of Cards) interamente ispirata dall’analisi del comportamento dei fruitori della piattaforma. In questo contesto si inserisce un tema ampiamente dibattuto e che riguarda la libertà della rete e degli utenti che ne fanno uso rispetto alla rete stessa. Per questo motivo è da tempo alla studio dei legislatori la necessità di fornire il web di regole in grado di calmierare l’uso indiscriminato di queste informazioni. Il problema però non è di facile soluzione poiché ci si riferisce ad un mondo che per quanto reale è basato sulla intangibilità e soprattutto sulla mancanza di confini definiti e di regole giuridiche comuni.
Si tratta di un’economia digitale quindi inserita nell’ordine della globalità. Ed allora come conciliare regole provenienti da Paesi più morbidi con regole rigide di Paesi più intransigenti? L’economia digitale si alimenta con dati raccolti in modo indiscriminato da utenti il più delle volte inconsapevoli di quanto viene fatto ed è per questo necessario realizzare un lato più etico nel quale i dati vengano raccolti in modo del tutto trasparente. La strada da percorrere in questo campo è, purtroppo, ancora molto lunga.
[ INTELLIGENZA ARTIFICIALE ]