Un tema di grande attualità quello dell’intelligenza artificiale che apre opportunità inesplorate. Come funziona e cosa comprende questa disciplina? Quali sono le tecnologie che la supportano? Quali le applicazioni già oggi possibili e quelle future?
Iniziamo subito togliendo ogni speranza a chi cerca una definizione univoca e condivisa della locuzione “intelligenza artificiale”.
Si tratta di un concetto che comprende un numero molto ampio di argomenti che afferiscono a differenti discipline, dalla neurologia all’informatica, dalla neurobiologia alla neurofisiologia (e in genere tutte le discipline che studiano il cervello umano) alla matematica e così via.
Per cui, più si cerca di darne una definizione scientifica omnicomprensiva più si è costretti a semplificarla. Per non tralasciare aspetti fondamentali a seconda del punto di vista preso in considerazione, resta una definizione apparentemente banale.
L’intelligenza artificiale trae la sua linfa dall’evoluzione di metodologie e algoritmi innovativi. Ed è su questi che ci focalizzeremo parlando qui, per esempio, di riconoscimento delle immagini e di realtà aumentata e virtuale e rimandando ad altri articoli che spiegano nel dettaglio machine learning, deep learning, natural language processing.
Intelligenza artificiale o intelligenza aumentata?
Intelligenza artificiale o intelligenza aumentata? Può apparire strano, dopo aver parlato fino ad ora di intelligenza artificiale, porsi questa domanda, ma non è una domanda peregrina.
Come vedremo nella parte dedicata ai temi etici, l’intelligenza artificiale se da un lato apre grandi opportunità, dall’altro alza anche il sipario su scenari, per ora solo fantascientifici, ma sicuramente allarmanti di un mondo governato dalle macchine.
Cosa fa l’AI Intelligenza Artificiale oggi
Il massimo livello raggiunto finora dall’Intelligenza Artificiale è quello di un ottimo studente, con una memoria poderosa, ma non del genio. Le macchine fino ad ora correlano ciò che hanno imparato. Da questi insegnamenti traggono nuove informazioni per simulare il comportamento umano, ma non hanno le illuminazioni geniali di un Einstein. Soprattutto non sviluppano proprie capacità cognitive, ma emulano quelle umane.
Sicuramente però possono supportare l’uomo mettendogli a disposizione correlazioni che una mente umana difficilmente potrebbe fare. Questo è possibile macinando la quantità infinita di dati oggi disponibili e contribuendo quindi ad “aumentare” l’intelligenza umana. Per questo in alcuni contesti si preferisce utilizzare il termine intelligenza aumentata invece di intelligenza artificiale.
Questo dibattito rispecchia quello che, nella comunità scientifica, si sostanzia nella differenza tra intelligenza artificiale debole (weak AI) e intelligenza artificiale forte (strong AI).
È al filosofo statunitense, nonché studioso del linguaggio, John Searle che dobbiamo l’esplicitazione di questa differenziazione.
Egli per la prima volta utilizza il termine “intelligenza artificiale forte” (dalla quale, secondo Searle, siamo ancora lontani) nell’articolo Menti, cervelli e programmi del 1980. Non è questa la sede per approfondire l’intenso dibattito che si sviluppa intorno a questa tematica, ma ci limitiamo a riportare sinteticamente le due definizioni.
Cos’è l’Intelligenza artificiale debole
Agisce e pensa come se avesse un cervello, ma non è intelligente, simula solo di esserlo. Per fornire la risposta a un problema indaga su casi simili, li confronta, elabora una serie di soluzioni e poi sceglie quella più razionale. Opta per la decisione che, sulla base dei dati analizzati, è più coerente simulando il comportamento umano.
L’AI debole non comprende totalmente i processi cognitivi umani, ma si occupa sostanzialmente di problem solving. Dà in pratica risposte a problemi sulla base di regole conosciute.
Cos’è l’Intelligenza artificiale forte
Ha capacità cognitive non distinguibili da quelle umane. Si collocano in questo ambito i “sistemi esperti” cioè software che riproducono prestazioni e conoscenze di persone esperte in un determinato ambito.
Il cuore di questi sistemi è il motore inferenziale ossia un algoritmo che, come la mente umana, da una proposizione assunta come vera passa a una seconda proposizione. Lo fa con logiche di tipo deduttivo (quando da un principio di carattere generale ne estrae uno o più di carattere particolare) o induttivo (quando avviene il contrario), la cui verità è derivata dal contenuto della prima.
La caratteristica distintiva di questi sistemi è l’analisi del linguaggio per comprenderne il significato. Infatti, senza comprensione del significato (ricordate quanto detto in tema memoria semantica?) non c’è vera intelligenza.
L’impatto economico dell’AI Intelligenza artificiale
Qualche tempo fa nell’articolo Quale è oggi e in futuro l’impatto economico dell’intelligenza artificiale? abbiamo analizzato alcuni trend che determinavano l’impatto economico dell’AI sull’economia mondiale.
AI nel mondo industriale
Specificatamente rivolta al mondo industriale è stata invece la survey The Present and Future of AI in the Industrial Sector condotta da HPE e Industry of Things World, conferenza europea di riferimento per il mondo dell’Industrial IoT, che ha coinvolto 858 professionisti ed executive di aziende industriali europee.
La maggioranza degli intervistati (61%) risulta già impegnata a qualche titolo nella AI. L’11% ha già implementato la tecnologia nelle funzioni o nelle attività di base. Il 14% prevede di farlo nei prossimi dodici mesi e il 36% ne sta valutando l’implementazione.
La previsione di crescita del fatturato conseguente all’adozione di una qualche forma di intelligenza artificiale è di circa l’11,6% entro il 2030, con un incremento dei margini del 10,4%.
Una delle cose più interessanti che emerge da questa indagine è che queste previsioni si basano sulle elevate percentuali di successo dei progetti di AI completati (risultato in genere non scontato nell’adozione di tecnologie d’avanguardia). Il 95% degli intervistati che hanno già implementato la AI nelle rispettive aziende afferma di aver raggiunto, migliorato o significativamente superato i propri obiettivi.
L’artificial intelligence e l’attività economica
Lo studio del McKinsey Global Institute (MGI) dal titolo Modeling the Impact of AI on the World Economy afferma che entro il 2030 l’AI potrebbe determinare un aumento dell’attività economica globale di circa 13 trilioni di dollari, con una crescita di circa 1,2% del PIL all’anno. L’impatto, se si dovesse confermare questa previsione, sarebbe simile a quello che hanno avuto nel 1800 il motore a vapore, i robot nella produzione industriale negli anni ’90 o la diffusione dell’IT negli anni 2000. Stiamo quindi parlando di tecnologie che possiamo definire disruptive.
L’impatto dell’AI non sarà lineare. Emergerà gradualmente e sarà visibile nel tempo con un’accelerazione crescente più ci si avvicina al 2030.
L’ipotesi è di un’adozione dell’AI basata sul modello della curva a S. Con un avvio lento a causa di costi e investimenti sostanziali associati all’apprendimento e all’implementazione. E un’accelerazione successiva determinata dall’effetto cumulativo e da un miglioramento delle capacità complementari.
Un’ultima considerazione relativa a queste ipotesi di crescita riguarda il modo in cui le aziende e i paesi sceglieranno di abbracciare l’intelligenza artificiale. Per le prime, se la scelta è più orientata verso l’utilizzo di queste tecnologie per ottenere una maggiore efficienza oppure maggiormente rivolta allo sviluppo di soluzioni e prodotti innovativi l’impatto sarà differente. Così se i paesi avranno un approccio di apertura (sostanziato da provvedimenti legislativi, sostegno economico, incentivi, sviluppo di percorsi formativi adeguati) o un atteggiamento prudente o ostile questo non potrà che influire sui risultati economici ipotizzati.
Ambiti applicativi ed esempi dell’intelligenza artificiale nella vita quotidiana e nei settori
L’intelligenza artificiale non è più una disciplina relegata ai laboratori di ricerca. Sono diffuse le applicazioni dove le diverse tecnologie di intelligenza sono implementate nella vita quotidiana.
Ma prima di illustrare alcuni ambiti, vogliamo ricordare i due elementi che stanno, da un lato, rendendo possibile la diffusione di applicazioni AI in ambito business, e dall’altro, le rendono disponibili in tempo reale là dove servono.
Il ruolo del cloud computing
A rendere possibile l’utilizzo di applicazioni AI su vasta scala in ambito business, a “democratizzarne” l’accesso rendendole fruibili anche a realtà medio piccole e non solo alle grandi corporation, è la diffusione del cloud computing.
La fruizione di tecnologie e applicazioni AI dai più diffusi cloud pubblici, nei quali avviene la potente massa elaborativa necessaria per eseguire applicazioni di AI, apre le porte anche a chi non ha grandi possibilità di investimento.
Il ruolo dell’edge computing
Il secondo elemento che è fondamentale è l’edge computing. Nelle applicazioni dove è necessario avere una risposta immediata a problematiche risolvibili con applicazioni di intelligenza artificiale queste devono essere eseguite là dove il dato viene raccolto, con un’elaborazione periferica. E per questo sono tanto importanti evoluzioni tecnologiche come le ReRAM di cui approfondiamo l’impatto più avanti.
AI e riconoscimento delle immagini
Quello del riconoscimento delle immagini, o computer vision, è uno degli ambiti dove, soprattutto negli ultimi anni e grazie all’utilizzo delle reti neurali, maggiori sono gli sforzi e gli investimenti di aziende e organizzazioni pubbliche. Basti pensare all’evoluzione avutasi nel riconoscimento facciale.
In un sistema di visione artificiale, gli oggetti (o le persone) da ispezionare vengono ripresi da telecamere. Le immagini vengono quindi digitalizzate. L’immagine, resa così “comprensibile” per il sistema di calcolo, passa attraverso un algoritmo che la elabora e analizza per “riconoscerla” in base a determinati modelli. Ed è proprio sulle caratteristiche di questo algoritmo e dei dati da cui è alimentato che sta la differenza tra passato e futuro dell’elaborazione delle immagini.
Facciamo un parallelismo con la vista umana. Quando vediamo un oggetto, fisso o in movimento che sia (immaginiamo un bambino che vi corre incontro felice), la nostra retina ne compie un’indagine elementare (qualcosa che viene verso di voi). La invia al cervello dove la corteccia visiva analizza più a fondo l’immagine (identifica un piccolo essere umano).
Questa immagine “approssimativa”, viene quindi inviata alla corteccia cerebrale che confronta questi dati con tutto quello che conosce. Identifica l’immagine attuale, la confronta con altre immagini già classificate e decide cosa fare. Si tratta di un bambino, vostro figlio, che vi corre incontro e vi abbassate per prenderlo in braccio. Tutto questo processo avviene in una microscopica frazione di secondo.
Cosa fa la visione artificiale
Ebbene, la visione artificiale riproduce questo meccanismo e i punti critici sono la qualità della digitalizzazione dell’immagine. E l’algoritmo fa le veci della corteccia cerebrale. Mentre dalla base dati vengono estratti modelli per effettuare il confronto e l’identificazione precisa dell’oggetto analizzato.
Il ruolo dell’algoritmo nel riconoscimento delle immagini
Per quanto riguarda l’algoritmo, il cambio di passo rispetto alle sperimentazioni della seconda metà del secolo scorso, viene dall’implementazione delle reti neurali convolutive o convulazionali (convolutional neural networks – CNN) con le prime sperimentazioni intorno al 2012.
Le reti neurali convoluzionali funzionano come tutte le reti neurali. Un layer di input, uno o più layer nascosti, che effettuano calcoli tramite funzioni di attivazione, e un layer di output con il risultato.
La differenza sono appunto le convoluzioni, non entro nel dettaglio di questo concetto matematico che è piuttosto complicato. In sostanza, nel nostro caso, è come se all’immagine venisse applicato un filtro (la maschera di convoluzione) che consente di collegare ogni neurone di un dato layer della rete neurale solo a una piccola sottosezione del layer precedente. In questo modo il neurone è responsabile solo dell’elaborazione di una determinata parte di un’immagine. E questo è il principio di funzionamento dei singoli neuroni corticali nel cervello.
Perché per l’AI è fondamentale la base dati
Perché la base dati con la quale l’algoritmo viene “addestrato” è fondamentale? La risposta è semplice. Quando diamo in pasto al computer dati parziali, non chiari o che riflettono il nostro modo di pensare, inevitabilmente il risultato dell’elaborazione risentirà di queste scelte (più o meno consapevoli che siano).
In pratica, il principio base della computer science “garbage in, garbage out” è valido per l’applicazione dell’AI nel riconoscimento delle immagini.
Ha fatto scuola lo studio del MIT di Boston del gennaio 2018 dove la ricercatrice Joy Buolamwini, testando i software di IBM, Microsoft e della cinese Face++, aveva appurato che gli algoritmi sono precisi al 99% nel caso di uomini bianchi, ma questa percentuale crolla al 35% per le donne dalla pelle scura. Il motivo? Il set di dati da analizzare che questi algoritmi utilizzavano per “apprendere” si basa su soggetti per l’80% bianchi e per il 75% maschi.
Realtà aumentata e realtà virtuale
Anche in questo caso partiamo dalla semplice definizione.
- La realtà aumentata rappresenta la realtà arricchendola con oggetti virtuali grazie all’utilizzo di sensori e algoritmi che consentono di sovrapporre immagini 3D generate dal computer al mondo reale.
- La realtà virtuale, invece, simula completamente un ambiente. Nel caso di realtà virtuale immersiva l’utente “entra” all’interno di questo ambiente grazie a speciali visori, guanti dotati di sensori utilizzati per i movimenti, per impartire comandi o tute (sempre dotate di sensori) che avvolgono l’intero corpo. Nella realtà virtuale non immersiva l’utente si troverà semplicemente dinanzi ad un monitor, il quale fungerà da finestra sul mondo tridimensionale con cui l’utente potrà interagire attraverso joystick appositi.
Come vedremo più avanti, l’utilizzo a fini ludici di queste tecnologie non è il principale scopo. Ormai molte aziende le utilizzano nello sviluppo e nel testing di nuovi prodotti (anche nel software testing) o nella vendita di prodotti e servizi.
Intelligenza artificiale nella Sanità
In questo ambito, il potenziale di applicazione è ampio. Tanto si può fare con l’analisi dei big data e della storia clinica dei pazienti applicando il machine learning. È il caso dei miglioramenti in fase diagnostica così come della possibilità di somministrare cure personalizzate in base al corredo genetico dell’individuo.
Grandi sono anche le promesse dell’intelligenza artificiale per la previsione e prevenzione di malattie o epidemie su larga scala. Si va dal monitoraggio in remoto delle condizioni di salute grazie ai wearable device, all’effettuazione di test di routine senza l’intervento del medico, fino al calcolo delle probabilità che un paziente sia affetto da una malattia. Per non parlare del supporto che si può fornire agli studi in ambito genetico e sul genoma.
Qualche dato sul rapporto tra AI e Sanità
Dall’applicazione dell’AI alla sanità possono trarre vantaggio le strutture ospedaliere, ma anche il sistema sanitario di interi paesi, grazie alla riduzione dei costi di ospedalizzazione. Una indagine di mercato realizzata da Accenture nel 2018 stima che la sanità USA entro il 2026 potrebbe risparmiare 150 miliardi di dollari grazie ad applicazioni di intelligenza artificiale sia in ambiti strettamente legati all’attività medica (dalla medicina generale alla chirurgia, alla somministrazione di farmaci) sia per quanto riguarda la sicurezza informatica in ambito ospedaliero.
Tractica, società specializzata in ricerche di mercato nell’ambito dell’AI e della robotica, nel 2017 stimava che le entrate mondiali delle tecnologie per l’analisi delle immagini mediche dovrebbero raggiungere i 1.600 milioni di dollari entro il 2025.
Mentre le entrate globali delle app di assistenza virtuale potrebbero, sempre entro la stessa data, superare i 1.200 milioni di dollari.
Intelligenza artificiale nell’Automotive: automobili a guida autonoma
Una delle applicazioni più note dell’intelligenza artificiale nel mondo dell’auto è quella delle auto autonome. Secondo il colosso della finanza BlackRock nel 2025 il 98% dei veicoli sarà connesso e nel 2035 il 75% sarà a guida autonoma.
I problemi etici dell’uso dell’AI nella guida autonoma
L’applicazione dell’AI nella guida autonoma non manca di sollevare problemi etici. I ricercatori del MIT hanno pubblicato nell’ottobre 2018 su Nature i risultati del sondaggio The Moral Machine experiment che ha coinvolto 2 milioni di persone in 233 paesi. Lo studio è nato per capire cosa pensa la gente riguardo alle scelte che un’auto a guida autonoma dovrebbe compiere in caso di emergenza.
Se l’auto deve scegliere se schiantarsi (rischiando di uccidere il guidatore) per non investire un bambino, che deve fare? E se invece del bambino c’è un anziano? E se deve scegliere tra investire un gruppo di persone o una persona sola? O se da una parte c’è un senza tetto e dall’altra una signora ben vestita?
Se su alcune risposte (meglio salvare persone che animali, gruppi più numerosi rispetto a gruppi meno numerosi) il parere era abbastanza condiviso. Su altre sono emerse differenze culturali. In America Latina, per esempio, si preferisce salvare i giovani rispetto agli anziani. Per gli asiatici l’auto dovrebbe scegliere di salvare gli anziani rispetto ai giovani.
AI sulle auto, cosa succede oggi
Non occorrerà attendere le auto che guidano da sole per vedere l’AI implementata sulle auto. Un esempio sono le videocamere intelligenti dotate di sistemi di facial recognition, già oggi installate su tir e veicoli commerciali. Essi rilevano lo stato del guidatore monitorando stanchezza, distrazioni, stati di scarsa lucidità. Questo consente, oltre di evitare incidenti, di abbassare i costi assicurativi per le flotte commerciali. E alcune case automobilistiche stanno sviluppando soluzioni, meno costose, da implementare sulle automobili.
In ogni caso, se alcune (per il momento un numero limitato) realtà stanno lavorando intensamente sulle auto a guida completamente autonoma, un numero crescente di produttori sta sviluppando servizi di AI a supporto del guidatore. Sistemi per evitare collisioni, alert per la segnalazione di pedoni o ciclisti ecc.
Artificial intelligence nel Finance e mercato azionario
Facciamo due esempi. I dati sulle abitudini individuali di rimborso, il numero di prestiti attivi in un dato momento, il numero di carte di credito intestate e altri dati possono essere utilizzati per personalizzare il tasso di interesse su una carta o su un mutuo. Sulla base delle risposte, il sistema di machine learning a supporto di questi servizi può migliorare ulteriormente offrendone di nuovi. Lo stesso meccanismo può risultare estremamente efficace nella rilevazione e gestione delle frodi dove il sistema, imparando dai propri errori, può essere sempre più efficace.
I vantaggi dell’AI per i clienti dei servizi finanziari
La AI sta ridefinendo il tipo di servizi finanziari offerti e la loro modalità di erogazione? Con quale impatto sugli istituti finanziari e quali vantaggi per i clienti? Sono le domande alle quali ha cercato di dare delle risposte lo studio realizzato qualche tempo fa dal World Economic Forum in collaborazione con Deloitte, The New Physics of Financial Services – Understanding how artificial intellligence is transforming the financial ecosystem.
Lo studio rileva che sono molto numerosi gli specifici servizi finanziari che possono ottenere importanti benefici dall’adozione di tecnologie di intelligenza artificiale. Come si vede nella figura 5, questi servizi sono stati raggruppati in 6 ambiti. Depositi e prestiti, Assicurazione, Pagamenti, Gestione degli investimenti, Capital markets (tutte le attività relative alla gestione degli strumenti finanziari emessi dai clienti della banca come obbligazioni, azioni e derivati) e Market infrastructure (intermediazione di servizio di brokeraggio per esempio gestione derivati).
Ogni servizio si posiziona poi su una scala di maturità che parte dall’utilizzo dell’AI per “fare meglio le cose” (A) per arrivare a un utilizzo che consente di “fare le cose in modo radicalmente diverso” (B).
Una delle applicazioni più note dell’intelligenza artificiale nel mondo dell’auto è quella delle auto autonome. Secondo il colosso della finanza BlackRock nel 2025 il 98% dei veicoli sarà connesso e nel 2035 il 75% sarà a guida autonoma.
I problemi etici dell’uso dell’AI nella guida autonoma
L’applicazione dell’AI nella guida autonoma non manca di sollevare problemi etici. I ricercatori del MIT hanno pubblicato nell’ottobre 2018 su Nature i risultati del sondaggio The Moral Machine experiment che ha coinvolto 2 milioni di persone in 233 paesi. Lo studio è nato per capire cosa pensa la gente riguardo alle scelte che un’auto a guida autonoma dovrebbe compiere in caso di emergenza.
Se l’auto deve scegliere se schiantarsi (rischiando di uccidere il guidatore) per non investire un bambino, che deve fare? E se invece del bambino c’è un anziano? E se deve scegliere tra investire un gruppo di persone o una persona sola? O se da una parte c’è un senza tetto e dall’altra una signora ben vestita?
Se su alcune risposte (meglio salvare persone che animali, gruppi più numerosi rispetto a gruppi meno numerosi) il parere era abbastanza condiviso. Su altre sono emerse differenze culturali. In America Latina, per esempio, si preferisce salvare i giovani rispetto agli anziani. Per gli asiatici l’auto dovrebbe scegliere di salvare gli anziani rispetto ai giovani.
AI sulle auto, cosa succede oggi
Non occorrerà attendere le auto che guidano da sole per vedere l’AI implementata sulle auto. Un esempio sono le videocamere intelligenti dotate di sistemi di facial recognition, già oggi installate su tir e veicoli commerciali. Essi rilevano lo stato del guidatore monitorando stanchezza, distrazioni, stati di scarsa lucidità. Questo consente, oltre di evitare incidenti, di abbassare i costi assicurativi per le flotte commerciali. E alcune case automobilistiche stanno sviluppando soluzioni, meno costose, da implementare sulle automobili.
In ogni caso, se alcune (per il momento un numero limitato) realtà stanno lavorando intensamente sulle auto a guida completamente autonoma, un numero crescente di produttori sta sviluppando servizi di AI a supporto del guidatore. Sistemi per evitare collisioni, alert per la segnalazione di pedoni o ciclisti ecc.
Artificial intelligence nel Finance e mercato azionario
Facciamo due esempi. I dati sulle abitudini individuali di rimborso, il numero di prestiti attivi in un dato momento, il numero di carte di credito intestate e altri dati possono essere utilizzati per personalizzare il tasso di interesse su una carta o su un mutuo. Sulla base delle risposte, il sistema di machine learning a supporto di questi servizi può migliorare ulteriormente offrendone di nuovi. Lo stesso meccanismo può risultare estremamente efficace nella rilevazione e gestione delle frodi dove il sistema, imparando dai propri errori, può essere sempre più efficace.
I vantaggi dell’AI per i clienti dei servizi finanziari
La AI sta ridefinendo il tipo di servizi finanziari offerti e la loro modalità di erogazione? Con quale impatto sugli istituti finanziari e quali vantaggi per i clienti? Sono le domande alle quali ha cercato di dare delle risposte lo studio realizzato qualche tempo fa dal World Economic Forum in collaborazione con Deloitte, The New Physics of Financial Services – Understanding how artificial intellligence is transforming the financial ecosystem.
Lo studio rileva che sono molto numerosi gli specifici servizi finanziari che possono ottenere importanti benefici dall’adozione di tecnologie di intelligenza artificiale. Come si vede nella figura 5, questi servizi sono stati raggruppati in 6 ambiti. Depositi e prestiti, Assicurazione, Pagamenti, Gestione degli investimenti, Capital markets (tutte le attività relative alla gestione degli strumenti finanziari emessi dai clienti della banca come obbligazioni, azioni e derivati) e Market infrastructure (intermediazione di servizio di brokeraggio per esempio gestione derivati).
Ogni servizio si posiziona poi su una scala di maturità che parte dall’utilizzo dell’AI per “fare meglio le cose” (A) per arrivare a un utilizzo che consente di “fare le cose in modo radicalmente diverso” (B).
Trasformare gli investimenti in AI in centri di profitto diretto
I processi di back-office abilitati all’IA possono essere migliorati più rapidamente se vengono offerti as a service ad altre aziende (anche competitor). Nella figura 6, che evidenzia le differenze tra un modello tradizionale di implementazione di AI e uno di back office come servizio, si evidenzia come questa seconda opzione, che abilita un miglioramento continuo dei servizi basato su ciò che si apprende nell’eseguirli presso i clienti, induca vantaggi economici diretti per il fornitore dei servizi.
L’AI è un nuovo campo di battaglia sul quale giocarsi la fedeltà del cliente
L’AI abilita nuove strade per differenziare la propria offerta ai clienti basata su una personalizzazione estremamente puntuale dei servizi. Essi possono essere offerti in tempo reale al manifestarsi di un’opportunità di mercato o di un’esigenza del cliente stesso.
Servizi finanziari auto gestiti
Grazie all’AI, la customer experience può cambiare radicalmente con un’interazione diretta tra il cliente e gli “agenti” di AI dei diversi fornitori di servizi finanziari (o dei diversi servizi dello stesso fornitore).
Il cliente stesso può autogestirsi, in modo completamente autonomo rispetto alla tradizionale consulenza finanziaria. Sempre nella logica del circolo virtuoso, inoltre, gli algoritmi di AI acquisiscono nuovi insegnamenti per migliorare.
Soluzioni collettive per problemi condivisi
Strumenti di collaborazione basati su AI, che si sviluppano su dataset condivisi, possono rendere più sicuro ed efficiente il sistema finanziario nel suo insieme.
Polarizzazione della struttura del mercato dei servizi finanziari
La diffusione dell’AI porterà a una graduale scomparsa delle realtà di medie dimensioni. Da una parte si andrà verso una sempre maggiore concentrazione. Processo già in atto da tempo in questo mercato a causa di altri fattori per i quali rimandiamo all’articolo Finance, i fattori esterni e interni che stanno trasformando il settore. L’altro polo è composto da una proliferazione di piccolissime realtà, molto agili, in grado di offrire prodotti di nicchia.
Il dato diventa il fulcro introno al quale costruire alleanze. Come abbiamo visto nei punti precedenti, infatti, maggiori sono i dati, migliori sono le performance delle soluzioni. Questa logica porterà inevitabilmente verso la periferia del mercato finanziario quelle realtà che non trovano la propria collocazione all’interno di un ecosistema.
Intelligenza artificiale per avvocati e Studi professionali
Gli studi professionali, dagli avvocati ai commercialisti ai notai, sono considerati un settore che sarà sempre più impattato dall’intelligenza artificiale. E questo non solo per automatizzare le attività di routinarie, ma anche per attività di media complessità. Esse sostituiscono il lavoro umano che, nella migliore delle ipotesi, potrà essere riqualificato per attività a maggior valore. Ma nella peggiore verrà estromesso dal settore fino ad arrivare alla scomparsa di alcune figure professionali oggi presenti.
Riassumiamo brevemente alcune delle attività che potrebbero ottenere benefici dall’adozione di tecnologie di AI.
Revisione dei documenti e ricerche legali
Software di AI possono migliorare l’efficienza dell’analisi dei documenti per uso legale. Possono catalogarli come rilevanti per un caso particolare o richiedere l’intervento umano per ulteriori approfondimenti.
Supporto dell’AI alla due diligence
Effettuare la ricerca di informazioni per conto dei loro clienti con la “dovuta diligenza”. È una delle attività più impegnative degli studi di assistenza legale. Si tratta di un lavoro che richiede la conferma di fatti e cifre e una valutazione approfondita delle decisioni sui casi precedenti. Gli strumenti di intelligenza artificiale possono aiutare questi professionisti a condurre la loro due diligence in modo più efficiente.
AI per revisione e gestione dei contratti
Gli avvocati del lavoro svolgono attività molto impegnative per rivedere i contratti di lavoro al fine di identificare eventuali rischi per i loro clienti. I contratti vengono rivisti, analizzati punto per punto per consigliare se firmarli o eventualmente rinegoziarli. Con l’ausilio di software di machine learning è possibile redigere il “migliore” contratto possibile.
L’AI aiuterà a prevedere il risultato di un procedimento giudiziario
Grazie a strumenti di intelligenza artificiale gli avvocati possono essere supportati nel fare previsioni sugli esiti di un procedimento giudiziario. E aiutare quindi i clienti nella decisione se, per esempio, proseguire in una determinata causa.
Fornire informazioni di base ai clienti o potenziali clienti
I grandi studi di assistenza legale devono dedicare assistenti alla preliminare attività di front end per tutte quelle persone che pensano di poter avere bisogno di un avvocato, ma non sono sicure.
L’utilizzo di chatbot basate su tecnologie di natural language processing (più o meno evolute quindi solo testuali o integrate con sistemi voce) possono supportare gli studi nella prima fase di risposta a queste richieste e per indirizzare il potenziale cliente al professionista più competente sul suo caso.
Esempi di adozione dell’AI nei casi legali
La banca d’affari JP Morgan qualche tempo fa stava sperimentando il software COntract INtelligence (COIN). Esso, in pochi secondi, dovrebbe essere in grado di leggere e interpretare accordi commerciali e contratti di prestito.
Un lavoro che implica procedure che occupano oltre 360 mila ore di lavoro/anno degli avvocati della Banca. A oggi non è ben chiaro se il software è già stato messo in produzione. Sicuramente rappresenta un indicatore importante di quello che può attendere i professionisti del settore.
E vari sono anche gli esempi per gli studi di commercialisti. H&R Block, società americana di consulenza fiscale e tributaria, ha stretto una collaborazione con IBM per l’utilizzo del sistema cognitivo Watson per automatizzare le attività relative alla dichiarazione dei redditi.
Grazie all’analisi di normativa e agevolazioni possibili, i propri clienti possano presentare la dichiarazione fiscalmente più conveniente.
AI e posti di lavoro
Il tema dell’impatto sull’occupazione delle nuove tecnologie e, in particolare, di intelligenza artificiale e automazione suscita dibattiti accesi.
Da un lato vi è chi prospetta un futuro catastrofico con la perdita di migliaia di posti di lavoro. Dall’altro chi minimizza questo aspetto. C’è chi ricorda che tutte le rivoluzioni hanno portato alla scomparsa di alcuni lavori. Ma ne hanno creato altri.
L’Osservatorio Artificial Intelligence del Politecnico di Milano, nel cercare di capire quale sarà l’impatto sull’occupazione di queste tecnologie, è partito da una prospettiva originale. Dopo avere analizzato le dinamiche socio-demografiche del nostro paese, con una visione a 15 anni, le ha prima messe in relazione con la domanda e l’offerta di lavoro. Quindi ha analizzato l’impatto dell’AI su uno scenario globale, e successivamente ne ha verificato l’impatto sul sistema previdenziale.
Entro il 2033 ci sarà un disavanzo di posti di lavoro pari circa a un milione
Per una visione approfondita rimandiamo all’articolo Lavoro e AI: “Più che una minaccia o un’opportunità, l’intelligenza artificiale è una necessità” . E alla videointervista rilasciata dal Direttore dell’Osservatorio Giovanni Miragliotta.
Qui ci limitiamo a fornire il dato finale emerso dall’indagine. A causa di diversi fattori, illustrati nell’articolo, nel 2033 in Italia mancheranno circa 4,7 milioni di posti di lavoro equivalenti. Contemporaneamente si stima che le nuove tecnologie sostituiranno 3,6 milioni di posti di lavoro.
Quindi, secondo il Politecnico, ci troveremo con un disavanzo pari a circa 1,1 milioni di posti di lavoro. Un disavanzo che potrà essere colmato grazie alla riduzione del tasso di disoccupazione. Questo impone un’azione di riconversione e formazione della forza lavoro non occupata. Un’analisi, quindi, che ribalta le previsioni catastrofiche su un impatto esclusivamente negativo dell’AI sul lavoro.
Resta evidente il bisogno di lavorare fin da subito in primis nella formazione di nuove competenze.
Le tecnologie che abilitano e supportano l’intelligenza artificiale
Dal quantum computing, ai chip neuromorfici, alle ReRAM
La ricerca per sviluppare tecnologie hardware in grado di supportare gli sviluppi in ambito software dell’intelligenza artificiale è intensa. Riportiamo qui le tecnologie che possono consentire di realizzare pienamente le promesse di questa disciplina.
General Purpose GPU
Nate nel mondo dei videogiochi per elaborare le informazioni grafiche dei computer, le GPU (Graphic Processing Unit) hanno via via aumentato le proprie prestazioni. Soprattutto dopo l’introduzione della grafica 3D nei videogiochi.
Per una volta, però, la solita storia dell’informatica si ribalta. Contrariamente a situazioni dove il software “divoratore” di capacità computazionale deve “combattere” con l’hardware mai completamente all’altezza, il potenziale di calcolo delle GPU rimaneva inespresso. Nel 2007, Nvidia (uno dei maggiori produttori di acceleratori grafici) introduce perciò General Purpose GPU.
Una brevissima digressione per capire come funzionano CPU e GPU. Nelle CPU le istruzioni vengono eseguite in maniera seriale sequenziale e tutti i core (i nuclei elaborativi) del processore si occupano della stessa istruzione finché non è terminata.
La logica con cui lavora una GPU è invece parallela. Molteplici istruzioni vengono eseguite contemporaneamente. Per farlo, invece di pochi core ottimizzati per il calcolo seriale, è strutturata con migliaia di unità di elaborazione, meno potenti di quelle delle CPU, ma ottimizzate per lavorare in parallelo.
Le GPGPU (General Purpose GPU) possono quindi eseguire porzioni di codice o programmi differenti in parallelo trovando applicazione in campo scientifico. Per esempio, dove diversi problemi possono essere scomposti e analizzati parallelamente. Velocizzano enormemente, per esempio, le operazioni nelle quali sono richiesti elaborazione e trattamento delle immagini.
Tensor Processing Unit: acceleratori di AI
Le Tensor Processing Unit (TPU) sono ASIC (Application specific integrated circuit) progettati e realizzati da Google espressamente per operazioni caratterizzate da alto carico di lavoro, quindi tipicamente quelle di machine learning. Questi circuiti sono destinati a ridurre il tempo dedicato alla fase inferenziale del machine learning, ossi quella che compara i singoli dati con il modello creato nella fase di apprendimento e che costituisce quella con il più elevato carico di lavoro), per questo vengono definiti acceleratori di AI.
Lo sviluppo di questi chip è iniziato nel 2008 e durante il Google I/O 2018, la conferenza annuale dedicata agli sviluppatori web, l’azienda di Mountain View ha presentato la release 3.0 delle TPU che, ha dichiarato l’amministratore delegato di Google Sundar Pichai, ha prestazioni 8 volte superiori rispetto alla v. 2.0, raggiungendo sino a 100 Petaflop per le operazioni di machine learning. Una potenza che, per la prima volta, ha richiesto l’inclusione nel circuito di un sistema di raffreddamento a liquido dato l’elevato calore prodotto.
ReRAM – Resistive Random Access Memory
Le memorie resistive ad accesso casuale sono in grado di immagazzinare dati per 1 terabyte (1.000 gigabyte) in chip grandi come un francobollo. Sono non volatili (capaci di mantenere l’informazione salvata anche in assenza di alimentazione elettrica). Non hanno bisogno di essere “avviate” e consumano pochissimo. Sono un grande abilitatore tecnologico per le applicazioni di intelligenza artificiale perché componente ideale per la costruzione di reti neurali.
Le memorie resistive trovano fondamento nel cosiddetto memristore (parola formata dalla fusione dei termini memoria e resistore), descritto come il quarto elemento fondamentale di un circuito elettrico (dopo condensatore, induttore e resistore).
La sua esistenza sinora era solamente teorica (la teorizzazione compare per la prima volta in un articolo di Leon Chua dell’Università di Berkeley nel 1971).
Nel 2007 negli HP Lab è stata prodotta una versione sperimentale di un dispositivo con caratteristiche simili a quelle di un memristore. Da allora i principali produttori di microprocessori e memorie hanno lavorato in questa direzione e da qualche tempo varie aziende ne hanno annunciato la produzione (Fujitsu Semiconductor, Western Digital, 4DS Memory, Weebit Nano, Crossbar, Intel e altri).
Proprietà fondamentale del memristore è quella di “ricordare” lo stato elettronico a prescindere dall’esistenza di una costante tensione elettrica (motivo per cui non necessita di “riavvio” all’accensione della macchina che lo integra) e di rappresentarlo con stati analogici.
I vantaggi delle ReRAM
Un esempio di vantaggio? La non necessità di caricare il sistema operativo ogni volta che si accende il device. La macchina sarebbe subito “sveglia” appena messa in azione. Le ReRAM hanno una struttura fisica semplice e compatta e le loro caratteristiche le rendono ideali per dispositivi come smartphone o tablet e, in genere, in quelli dell’IoT dato che, oltre a essere 20 volte più veloci delle attuali memorie utilizzate nei dispositivi mobili di ultima generazione, consumerebbero anche 20 volte di meno. Bisogna dire che la ricerca in questo campo è una delle più attive.
Nel gennaio 2017, per esempio, la Nanyang Technological University di Singapore, insieme alle tedesche RWTH Aachen University e Forschungszentrum Juelich Research Center hanno annunciato lo sviluppo di un prototipo che, sfruttando le potenzialità dei chip ReRAM, è in grado di svolgere sia le funzionalità di processore sia quelle di RAM.
La peculiarità di questo chip, oltre ad essere ancora più veloce e consumare meno dei microprocessori di ultima generazione, è però un’altra. Il memristore conserva e processa le informazioni in modalità analogica e non digitale.
Il prototipo euroasiatico adotta quella che viene chiamata computazione ternaria dove ai consueti 0 e 1 del sistema binario si affianca il 2. Combina i vantaggi del sistema binario con quelli di un sistema che, aggiungendo una dimensione, si avvicina a quello analogico.
Quantum computing
La definizione da vocabolario (Treccani) di computer quantistico è la seguente: “Macchina che elabora l’informazione e compie operazioni logiche in base alle leggi della meccanica quantistica. Esso opera cioè secondo una logica quantistica, profondamente diversa da quella classica in base alla quale funzionano gli attuali calcolatori. L’unità di informazione quantistica è il qubit”.
Diciamo che, per chi è a digiuno dei principi di base della fisica moderna, questa definizione non chiarisce molto e quindi riportiamo, per punti, gli step fondamentali che hanno consentito di arrivare a questa tecnologia.
L’introduzione del concetto di “quanto”
Alla fine del XIX secolo, la meccanica classica appariva incapace di descrivere il comportamento della materia o della radiazione elettromagnetica a livello microscopico (scale di grandezza inferiori o uguali a un atomo).
Agli inizi del ‘900, il fisico tedesco Max Planck introduce il concetto di “quanto”. Alcune quantità o grandezze di certi sistemi fisici (come l’energia) a livello microscopico possono variare soltanto di valori discreti, detti quanti, e non continui. Il quanto (che deriva dal latino quantum, quantità) è quindi la quantità elementare discreta e indivisibile di una certa grandezza.
La meccanica quantistica
Con gli studi degli anni successivi si arriva al concetto di meccanica quantistica che si basa su 5 postulati. Qui non li approfondiremo perché ci farebbe deviare dal nostro percorso. Ma i fenomeni che si riveleranno particolarmente importanti per lo sviluppo della tecnologia di cui stiamo parlando sono quelli della sovrapposizione degli effetti e della correlazione quantistica (detta entanglement). In base a questi in determinate condizioni lo stato quantico di un sistema fisico non può essere descritto singolarmente, ma solo come sovrapposizione di più sistemi (o strati).
La meccanica quantistica rappresenta, insieme alla relatività, un punto di svolta della fisica classica e apre le porte alla fisica moderna.
Informatica e meccanica quantistica
Per decenni l’aumento della potenza dei computer è stato regolato dalla cosiddetta Legge di Moore (la densità dei transistor su un microchip e la relativa velocità di calcolo raddoppiano ogni 18 mesi). La miniaturizzazione dei componenti presenta oggettivi limiti (oltre i quali non è possibile ridurre le dimensioni dei componenti).
Agli inizi degli anni ’80 del secolo scorso, grazie all’elaborazione di diversi scienziati, si arriva a teorizzare un possibile uso della teoria dei quanti in informatica. Al posto dei convenzionali bit (che definiscono 1 dimensione con due stati: aperto/chiuso) si utilizza come unità di misura il qubit (o qbit): la più piccola porzione in cui una qualsiasi informazione codificata può essere scomposta che, per sua natura, è continua.
È un concetto che non è facile da comprendere, ma su Wikipedia si trova una metafora che può aiutare per comprendere la natura “continua” del qbit: “Mentre il bit classico è immaginabile come una moneta che, una volta lanciata, cadrà a terra mostrando inesorabilmente una delle due facce, il qbit è immaginabile come una moneta che, una volta lanciata, cadrà a terra continuando a ruotare su sé stessa senza arrestarsi finché qualcuno non ne blocchi la rotazione, obbligandola a mostrare una delle sue facce”.
L’altro fenomeno della meccanica quantistica è l’entanglement. Secondo questo, nel momento in cui vengono combinati, due qbit perdono la loro natura individuale per assumerne una unica di coppia. Quindi lo stato di un qbit influenza quello dell’altro e viceversa portando a una combinazione matematica esponenziale.
Alcuni computer quantistici
Facciamo ora un salto agli anni più recenti. nel maggio 2011 la canadese D-Wave Systems annuncia il computer quantistico D-Wave One (che però ha sollevato dubbi in parte della comunità scientifica sull’effettivo utilizzo di qbit nei suoi processori). Viene annunciata nel 2013 la collaborazione con Nasa e Google per lo sviluppo di computer quantici per il machine learning.
Nel 2016 IBM annuncia la disponibilità per i propri clienti, attraverso il servizio cloud IBM Quantum Experience, di un processore quantistico a 5 qbit. Esso si trova presso il Watson Research Center di IBM a New York, mentre nei suoi laboratori si lavora alla realizzazione di un processore a 50 qubit.
Intel annuncia la consegna del suo primo chip quantistico con 17 qbit al partner olandese QuTech, è il 2017.
Nel marzo 2018 Google Quantum AI Lab ha annunciato la creazione di Bristlecone, un processore quantistico dotato di 72 qbit.
Chip neuromorfici
Si tratta di chip in grado di simulare il funzionamento del cervello umano quindi, come abbiamo visto per le reti neurali, basati su una logica di funzionamento analogica. Si attivano in maniera differente a seconda del gradiente di segnale scambiato tra due o più unità.
Processori di questo tipo si rivelerebbero fondamentali per lo sviluppo di reti neurali artificiali e negli ultimi anni la ricerca si è molto concentrata, con risultati altalenanti, su questi chip. Riportiamo un annuncio del gennaio 2018 dei ricercatori del MIT di Boston. Fino a oggi nei chip “neuromorfici” la sinapsi (il collegamento) era formata da due strati conduttori separati da un materiale amorfo, in cui le particelle elettricamente cariche usate come messaggeri erano libere di muoversi in modo incontrollabile. In questo modo la performance della sinapsi poteva variare di volta in volta, senza garantire uniformità.
I ricercatori del MIT hanno sfruttato del silicio monocristallino al posto del materiale amorfo. All’interno di questo materiale, formato da un reticolo cristallino continuo, è stato creato un ‘imbuto’ che consente il passaggio degli ioni in modo uniforme e controllabile. Le sinapsi artificiali così create sono riuscite a superare un test di apprendimento per il riconoscimento di diversi tipi di calligrafia con un’accuratezza del 95%.
L’intelligenza artificiale nel 2020: cosa è successo con la pandemia
Nel 2020 il mercato relativo alle soluzioni di intelligenza artificiale si è assestato sui 300 milioni di euro, +15% rispetto al 2019.
“La crisi sanitaria non ha fermato l’innovazione e la crescita del mercato dell’Artificial Intelligence – ha affermato Alessandro Piva, Direttore dell’Osservatorio Artificial Intelligence. Ma ne ha sicuramente orientato l’attenzione su alcune tipologie di progetti, accelerando ad esempio le iniziative di Forecasting (stima della domanda), Anomaly Detection (individuazione di frodi online), Object Detection (come il riconoscimento dei DPI nelle immagini) e ancora di più di Chatbot e i Virtual Assistant, spinti dallo spostamento online della relazione col cliente. È aumentata anche la maturità delle imprese, con una forte crescita dei progetti pienamente operativi”.
Quello che stiamo vivendo, a partire dagli anni ’80, è un periodo di grande fermento sui temi dell’intelligenza artificiale. Possiamo paragonarlo a quello di un essere umano nel pieno della propria giovinezza, ricco di energie e voglia di sperimentare. Un uomo che ha anche l’adeguata capacità di analizzare quanto appreso, valutarne potenzialità e possibili sviluppi. E si chiude qui la nostra metafora perché, il passo successivo, quello della maturità, è ancora all’orizzonte.
Gli ultimi trend che stanno caratterizzando l’evoluzione dell’AI
Secondo l’Osservatorio Artificial Intelligence 2022, nel 2021 il mercato relativo all’intelligenza artificiale, aveva toccato il valore di 380 milioni di euro. Tale cifra rappresentava un +27% rispetto all’anno precedente. Un terzo di queste revenue riguardava progetti per Intelligent data processing. Ma si stavano affermando anche le soluzioni per il NLP – Natural language processing e gli algoritmi per offrire ai clienti prodotti/contenuti che rispettino le loro preferenze.
AI protagonista dei Top Strategic Technology Trends di Gartner 2022
Intelligenza decisionale, AI generativa e ingegnerizzazione dell’AI sono 3 dei 12 Top Strategic Technology Trends che erano stati identificati da Gartner per il 2022.
I primi rappresentano due evoluzioni delle tecnologie di AI:
- con intelligenza decisionale, si intende la capacità di modellare le decisioni in modo ripetibile per renderle più efficienti accelerando la velocità di valutazione; secondo la società di analisi ciò sarà possibile grazie alla combinazione di tecnologie di integrazione dei dati, analytics e, soprattutto, automazione basata sull’intelligenza artificiale;
- l’AI generativa si riferisce a soluzioni che possono utilizzare contenuti esistenti come testo, file audio o immagini per creare nuovi contenuti plausibili; trend che il MIT ritiene essere uno dei più promettenti dell’AI.
Infine l’ingegnerizzazione dell’AI, fondamentale perché l’efficacia delle soluzioni di AI permanga nel tempo. L’errore compiuto da molte aziende che hanno adottato modelli di intelligenza artificiale è quello di aspettarsi che il valore maturerà per sempre, ma non è così. L’Ai deve essere ingegnerizzata in modo da rendere operativi gli aggiornamenti ai modelli di AI combinando pipeline di aggiornamento automatizzate con una forte governance dell’IA.
I dati 2023
In un contesto di questo tipo, quel che emerge dai dati dell’Osservatorio Artificial Intelligence 2023 è un continuo incremento dell’adozione di tecniche AI presso le aziende e non solo.
Il mercato di prodotti e servizi in quest’ambito è aumentato del 32% e, dato ancora più interessante, il 61% delle imprese ha implementato almeno un progetto di intelligenza artificiale. Si tratta, per lo più, di applicazioni in ambito Intelligent Data Processing, Interpretazione del linguaggio, Recommendation System, Computer Visione e Intelligent RPA.
A ciò si aggiunga la sempre maggiore confidenza nell’AI da parte degli utenti finali, basti pensare alla popolarità di ChatGPT.
Articolo originariamente pubblicato il 28 Set 2022
Patrizia Fabbri
[ ZeroUno ]