Geoffrey Hinton, i cui studi sono alla base delle moderne piattaforme come ChatGpt, si dice pentito di quello che ha fatto, si dimette da Google e mette in guardia il mondo dalle conseguenze dannose dello sviluppo dell’Ai.
«Il mondo investa pesantemente e con urgenza nella sicurezza e nel controllo dell’intelligenza artificiale», chiede l’uomo che ha praticamente inventato l’intelligenza artificiale. Geoffrey Hinton, scienziato informatico americano di origini britanniche di 75 anni, fu tra i primi, negli anni Settanta, a prendere in considerazione l’idea di “rete neurale” – un sistema matematico che apprende abilità analizzando i dati – ed è a pieno diritto diritto considerato il “padrino” dell’intelligenza artificiale. Nel 2012, insieme a due suoi studenti dell’Università di Toronto, Hinton ha costruito una rete neurale in grado di analizzare migliaia di foto e imparare a identificare oggetti comuni, come fiori, cani e automobili, sistema che oggi è alla base di piattaforme come ChatGpt e Google Bard.
«Preoccupato dagli sviluppi dell’intelligenza artificiale»
Proprio Google qualche anno fa ha acquisito la società fondata da Hinton e dai suoi studenti, e lui stesso ha lavorato per il colosso di Mountain View per dieci anni. Fino a pochi giorni fa, quando ha annunciato le sue dimissioni da Google. Hinton lascia per ragioni di età, ma anche perché – ha detto in un lungo colloqui con il New York Times, ripresa ieri dai principali media di tutto il mondo – è preoccupato dagli sviluppi dell’intelligenza artificiale, che potrebbero essere «abbastanza spaventosi», ha aggiunto alla BBC. Hinton, la cui pionieristica ricerca sul deep learning ha portato all’Ai come la conosciamo oggi, si è addirittura detto pentito del suo lavoro in tutti questi anni, anche se «mi consolo con la solita scusa: se non l’avessi fatto io, l’avrebbe fatto qualcun altro».
Hinton si è così unito al coro di esperti, ricercatori e investitori visionari che da qualche tempo mettono in guardia da un uso «cattivo» di un’invenzione che qualcuno paragona alle armi nucleari, all’elettricità o addirittura alla scoperta del fuoco. «In questo momento, quello che stiamo vedendo è che sistemi come GPT-4 superano di gran lunga una persona per quantità di cose conosciute. In termini di ragionamento non è ancora così avanzato, ma fa già alcuni ragionamenti semplici», ha detto. «E dato il ritmo con cui progredisce, ci aspettiamo che le cose migliorino abbastanza velocemente. Quindi dobbiamo preoccuparcene».
L’intelligenza artificiale e i soldati robot
L’Ai generativa è già uno strumento potente di disinformazione, capace di produrre immagini, testi, articoli, prodotti audio e musicali verosimili. C’è poi chi prevede che toglierà il posto di lavoro a milioni di persone, e chi teme una sua preoccupante applicazione massiccia in campo bellico. Negli anni Ottanta, scrive il New York Times, «il dottor Hinton era un professore di informatica alla Carnegie Mellon University, ma lasciò l’università per il Canada perché riluttante ad accettare finanziamenti dal Pentagono. A quel tempo, la maggior parte della ricerca sull’Ai negli Stati Uniti era finanziata dal Dipartimento della Difesa. Hinton è profondamente contrario all’uso dell’intelligenza artificiale sul campo di battaglia, quelli che chiama “soldati robot”».
Hinton dice di essere «giunto alla conclusione che il tipo di intelligenza che stiamo sviluppando è molto diverso dall’intelligenza che abbiamo. Noi siamo sistemi biologici, questi sono sistemi digitali. E la grande differenza è che con i sistemi digitali hai molte copie dello stesso sistema di valori, lo stesso modello del mondo. Tutte queste copie possono imparare separatamente ma condividere le loro conoscenze all’istante. Quindi è come se tu avessi a disposizione 10.000 persone, e ogni volta che una persona ha imparato qualcosa, tutte le altre lo sapessero automaticamente. È così che questi chatbot possono sapere molto di più di qualunque persona al mondo».
«Non saremo più in grado di sapere cosa è vero»
Fino all’anno scorso, Hinton era convinto che questi sistemi non potessero competere con le capacità di apprendimento e gestione del linguaggio del cervello umano. Ora non ne è più così sicuro. «Forse quello che succede in questi sistemi è in realtà molto meglio di quello che succede nel cervello». Fino a che OpenAi, finanziata da Microsoft, non ha sviluppato e reso pubblico il proprio chatbot, Google si è comportata in modo responsabile, guardandosi bene dal rilasciare sistemi che avrebbero potuto causare danni. Ma adesso che la corsa è partita, difficilmente qualcuno si fermerà. A poco serve l’appello di Elon Musk e altri innovatori a fermare lo sviluppo dell’Ai fino a che non saranno più chiare le sue implicazioni più problematiche.
I più ottimisti pensavano che i livelli attuali si sarebbero raggiunti tra 30-50 anni, invece il suo sviluppo è molto più veloce: questi sistemi spesso apprendono comportamenti inaspettati dalle enormi quantità di dati che analizzano, e «questo diventa un problema» ha spiegato Hinton: «poiché individui e aziende consentono ai sistemi di intelligenza artificiale non solo di generare il proprio codice informatico, ma di eseguirlo effettivamente da soli», cosa succederà quando avremo a che fare con i cosiddetti soldati robot? I giganti della tecnologia sono ormai lanciati in una corsa che pare impossibile fermare. Hinton chiede – forse utopisticamente – una regolamentazione a livello mondiale. La sua preoccupazione immediata è che Internet sarà inondato di foto, video e testi falsi e la gente «non sarà più in grado di sapere cosa è vero». Da lì, il caos?
Piero Vietti
[ TEMPI.IT ]
TEMPI. IT : Proprio di questo parleremo il 17 giugno prossimo a Caorle, nella seconda serata del nostro festival “Chiamare le cose col loro nome”. Ospiti del dibattito: l’editorialista del Corriere della Sera Massimo Gaggi, il filosofo Giovanni Maddalena e l’autore di satira Federico Palmaroli, in arte Osho