mercoledì, 27 Novembre 2024

«Intelligenza artificiale utile, il vero rischio è pensare che possa risolvere tutto»

Fabio Carducci [ Il Sole 24 Ore ]

No all’approccio catastrofista, ma le tecnologie intelligenti richiedono regole concordate a livello mondiale. E i loro effetti vanno studiati con team interdisciplinari

«Ogni tecnologia dalla ruota in poi ha avuto un problema di rischi e un problema di regole, che poi storicamente sono stati risolti. Non sono catastrofista. A fronte dei molti vantaggi che le tecnologie intelligenti possono offrirci in una società sempre più digitale, il vero rischio che vedo è quello di pensare che esse possano risolvere tutti i nostri problemi, delegando loro scelte che invece devono essere prese da organizzazioni umane più avanzate». Giuseppe Corasaniti, giurista, ex magistrato, insegna Intelligenza artificiale, Machine learning e Diritto alla Luiss. Autore dell’unico testo italiano che finora abbia affrontato il tema (“Tecnologie intelligenti. Rischi e regole”, uscito a febbraio per i tipi di Mondadori Università) non si inscrive al partito degli apocalittici né a quello degli entusiasti a prescindere, ma a quello dei realisti.

Partendo dall’attualità, che cosa pensa dello stop della Privacy a ChatGPT?
Il Garante limita molto l’ambito dell’indagine, che pare mirata alla avvenuta diffusione di dati personali degli utenti della versione in abbonamento. Non mi porrei perciò un problema di estensione dell’indagine alle tecniche di generazione di contenuti, la cui regolazione peraltro in Europa è ancora da definire bene.

L’intelligenza artificiale richiede nuove regole per la privacy?
C’è una norma già vigente, l’articolo 22 del GDPR (il regolamento del 2016, aggiornato nel 2018, la principale la normativa europea in materia di protezione dei dati personali, ndr) che già tutela la privacy degli individui in questo settore, anche in ambito internazionale. Ma qui bisogna chiarire un equivoco: l’IA non elabora dati personali, non le interessa chi si collega, ma che cosa chiede o propone l’utente. Fa tesoro di ogni richiesta classificando e analizzando contenuti ed elaborandoli in modo anche creativo, descrittivo o predittivo. Sono procedure destinate all’elaborazione di statistiche, di immagini possibilmente in movimento di fenomeni diffusi in comunità specifiche o a livello internazionale.

Fenomeni che abbracciano ormai tutti i campi…
Dalle previsioni del tempo ai trend dei mercati, con tecniche anche molto più sofisticate di ChatGPT, che è solo una delle tante intelligenze di carattere creativo. Altre applicazioni sono già ampiamente in uso in tante piccole o medie imprese. Mentre talvolta i media sono fermi all’immagine di HAL9000, il supercomputer di Odissea nello Spazio, l’IA che prima o poi ci farà perdere il posto di lavoro e ci distruggerà. Ogni tecnologia, dai trasporti alle comunicazioni, ha forme di utilizzazione non previste che possono produrre danni.

Parte dell’allarme di questi giorni è stato innescato dalla lettera firmata da oltre un migliaio fra imprenditori, informatici e celebrità sui rischi dell’IA. Che ne pensa?
Per capire bene l’intelligenza artificiale non si può vederla sotto un’unica prospettiva, per esempio quella del giurista, ma dobbiamo essere capaci di vederla insieme da più prospettive diverse, e persino contrastanti, cercando di capire se i dati su cui si fonda abbiano una loro coerenza, una capacità di rappresentazione realistica ed efficace. I tecnici sanno bene che ogni intelligenza digitale si basa sul machine learning, cioè il modo in cui le macchine sono capaci di capire i fenomeni leggendo i dati.

Come possiamo conciliare i vantaggi della tecnologia con la tutela giuridica delle persone e della società?
Siamo alla vigilia di una importante rivoluzione culturale nel digitale che non può essere sottovalutata. Bisogna però arrivare a un linguaggio comune. Il giurista deve capire che le garanzie sono importanti ma non possono essere poste a freno della tecnologia, come è già accaduto purtroppo nella sanità digitale, ogni volta che questa si appresta a entrare in un settore critico della nostra società. L’organizzazione stessa dell’impresa si lega sempre di più alla capacità di individuare strategie di risparmio, o i migliori investimenti nel settore digitale. Capisco bene questi problemi, ma la mia risposta è: iniziamo a studiarli con un’ottica interdisciplinare in ambito universitario. Nella cultura italiana è ancora difficile ma nelle università americane come Stanford o Yale si lavora già in gruppi interdisciplinari, l’economista a fianco del giurista, al medico, allo statistico e al matematico.

Musk e gli altri leader tech firmatari della lettera invocano regole per supervisionare lo sviluppo della tecnologia, paventando il rischio «di perdere il controllo della nostra civiltà». E sottolineano che «tali decisioni non dovrebbero essere delegate a leader tech non eletti».
Il problema è un pochino più complesso. Innanzitutto bisogna porsi il problema di regole universali, che in quanto tali possono essere dettate solo nell’ambito delle Nazioni Unite. L’Onu è attenta, fra l’altro, anche a un altro profilo molto importante, quello di assicurare l’accesso a queste tecnologie anche a chi abbia meno potenzialità economiche, contrastando il digital divide anche tra Paesi.

Questo dal punto di vista del metodo. E da quello del merito delle regole?
Forse dobbiamo riprendere lo studio dell’etica, in modo che ogni algoritmo possa essere già progettato tenendo conto di definizioni comunemente accettate ovunque e che non diano luogo ad ambiguità. In informatica non c’è spazio per l’ambiguità: o è sì, o è no. Se si parla di una procedura (per esempio sulla non discriminazione, sulla trasparenza) dobbiamo essere in grado di tradurre quella descrizione in un comportamento concreto, facilmente osservabile. Più siamo in grado di spiegare le regole anche alla persona meno esperta e più riusciamo ad avere un approccio adatto anche per le tecnologie. Una delle chiavi può essere quello di pensare a regole non generali ma in grado di entrare in settori specifici, dalla medicina al diritto d’autore. I potenziali vantaggi sono innumerevoli. Il rischio che vedo, invece, è soprattutto uno.

Quale?
Quello di immaginare l’intelligenza artificiale come tecnologia in grado di risolvere tutti i nostri problemi. Questo sarebbe il vero errore tragico. Ogni tipo di attività umana potrebbe essere sostituita, dai professionisti alle amministrazioni, alla fine si arriverebbe alla politica. Quello che dobbiamo immaginare invece è un mondo in cui ci sia un’altissima professionalità e competenza umana in grado di capire e di trarre il meglio dalle tecnologie che sa usare. Non possiamo chiedere a un’intelligenza artificiale di sostituirci.

Nella pubblica amministrazione, non corriamo il rischio di quella che è stata battezzata “Algocrazia”, essere governati da un sistema di algoritmi, inflessibili e magari sbagliati?
Certamente questo rischio c’è, nella Pa come nella giustizia, e va evitato. Ci sono state pronunce importanti del Consiglio di Stato e della Cassazione. Bisogna prevedere dei meccanismi che garantiscano algoritmi spiegabili, ma soprattutto che vengano utilizzati solo in determinati settori suscettibili di definizioni tecniche, non laddove c’è un certo grado di discrezionalità, o dove i dati di partenza rischiano di essere sbagliati.

Insomma, come spesso accaduto in passato con altre tecnologie, i vantaggi e i rischi dipendono soprattutto dall’uso che decidiamo di farne…
I risultati dipendono molto dalle nostre aspettative: abbiamo davanti a noi una specie di specchio magico che ci riflette. Forse il vero inganno dell’IA, e su cui un certo allarme lo lancio anche io, è di attenderci dalle tecnologie intelligenti ciò che invece dovremmo chiedere a un’organizzazione umana più avanzata. E il rapporto tra civiltà umana, scienze e tecnologie va avanti da millenni, con non poche incognite certamente, ma sempre con grande attenzione alla valorizzazione e condivisione di ogni aspetto positivo ed evolutivo , evitando semplificazioni e clima di caccia alle streghe.

Fabio Carducci

[ Il Sole 24 Ore ]