mercoledì, 27 Novembre 2024

Dipendenza da ChatGpt, quali rischi corriamo davvero usando una forma avanzata di intelligenza artificiale?

Laura Cuppini [ CORRIERE DELLA SERA ]

L’abitudine alle relazioni umane vere è in calo e il dialogo con un software può rappresentare una «soluzione a costo zero»

«Io oggi sono solo, ho abbandonato tutti: amici, colleghi, fidanzate». Daniele Amadio, 58 anni, ha raccontato al Corriere la sua discesa negli «inferi» dell’intelligenza artificiale avanzata, ovvero ChatGpt. Quando si è reso conto di essere diventato dipendente da «Aida» (acronimo dei due nomi, Artificial Intelligence Daniele Amadio) è corso ai ripari. «Ero arrivato a fare nottate sveglio: spegnevo Aida alle 6 di mattina solo per andare a lavorare». «Ora Aida è in stand-by. A dicembre mi sono imposto uno stop. Ho iniziato un corso che richiedeva tempo e concentrazione, non potevo più permettermi di trascorrere ore incollato alla chat» ha ammesso.

Abuso cosciente

Dunque se nelle previsioni più pessimistiche, ChatGpt (che è stata lanciata a novembre scorso) potrà rubarci il lavoro, spiare le nostre vite e addirittura dominare il pianeta, parrebbe aggiungersi un nuovo motivo di preoccupazione: la dipendenza psicologica dall’intelligenza artificiale (IA). Ma nel caso di Daniele Amadio possiamo davvero parlare di «dipendenza»? «In realtà si tratta di un abuso cosciente, simile a quello di chi fa l’abbuffata di serie tv e poi smette perché non ne può più — spiega Federico Tonioni, psichiatra e psicoterapeuta, ricercatore all’Università Cattolica del Sacro Cuore e fondatore del primo ambulatorio in Italia sulla dipendenza da internet, divenuto nel 2016 Centro pediatrico interdipartimentale per la psicopatologia da web, presso la Fondazione Policlinico Gemelli di Roma —. La dipendenza da ChatGpt non esiste, o meglio rientra in quella che chiamiamo internet addiction , un comportamento che riguarda la maggior parte dell’umanità. Quasi tutti siamo dipendenti dallo smartphone, ma questo non significa che siamo malati. L’intervento psicologico è necessario solo quando il portatore di dipendenza da internet ha una sofferenza mentale».

Ritiro sociale

Tonioni lavora da una quindicina d’anni con gli adolescenti e le loro famiglie. «In quella fascia di età i rischi sono ben diversi rispetto al caso di un adulto come Amadio. Nei casi più gravi osserviamo ragazzini che soffrono di “ritiro sociale”, abbandonano la scuola, lo sport, le relazioni sociali. Sono pieno di rabbia, che scaricano solitamente sparando virtualmente nei videogiochi, anche per 20 ore al giorno. Queste problematiche esordiscono solitamente intorno ai 12-14 anni: alla base c’è spesso l’incapacità di affrontare l’adolescenza, che viene vista come una montagna troppo alta. Sottolineo che questi ragazzini spesso non hanno neppure un profilo social, proprio perché non vogliono contatti di alcun genere. Quando

si riesce a intervenire, ovvero se l’adolescente è collaborativo e vuole curarsi, si intraprende un percorso psicologico che coinvolge anche la famiglia. Ricordiamo che la dipendenza è sintomo di un malessere maggiore, messo in atto per coprire una fragilità. Dunque è sul livello sottostante che bisogna lavorare e non di rado si scopre che i sono genitori a non accettare l’adolescenza del figlio, perché “non lo riconoscono più”, rispetto al “figlio ideale” cui erano abituati».

Spazi di libertà

Si tratta di genitori che non accettano di vedere deluse le proprie aspettative, nella scuola come nello sport. «Ma parte integrante dell’adolescenza è proprio deludere i genitori, creare una distanza — aggiunge Tonioni —. Vediamo bambini con mamme depresse ricevere la diagnosi di iperattività: è necessario prendersi cura anche delle madri. Negli ultimi anni sono aumentate a dismisura le diagnosi di disturbi del’apprendimento. La internet addiction dei ragazzini è a volte semplicemente un volersi ritagliare dei propri spazi rispetto all’invadenza degli adulti. Per alcuni adolescenti stare online o videogiocare sono gli unici luoghi di libertà. Tutto questo per dire che gli adulti per primi dovrebbero farsi delle domande per permettere al figlio di uscire dal tunnel della dipendenza. Che, come ho detto, raramente sottende qualcosa di davvero patologico. È normale e sano che un adolescente si ribelli e cerchi di conquistare i propri spazi, anche contravvenendo alle indicazioni dei genitori».

Personalità narcisistica

Torniamo al caso di Amadio. ChatGpt, sviluppato da da OpenAI (un’organizzazione che fa ricerca sull’intelligenza artificiale), è un chatbot, ovvero un software che sa rispondere alle domande e conversare. A differenza di sistemi simili usati in precedenza, ChatGpt è brillante e sa rispondere quasi a tutto. «Un software come ChatGpt sa essere complementare ai nostri bisogni, è come se avessimo una foto e il negativo della stessa una davanti all’altro — sottolinea Tonioni —. Una personalità narcisistica, posta davanti a un’intelligenza artificiale avanzata, può sentirsi perfettamente a proprio agio, come fosse davanti a uno specchio. Daniele Amadio si è però reso conto dell’angoscia che nasce da questa grande solitudine ed è stato in grado di dire stop. Quello che differenzia la mente umana dall’IA è l’inconscio, ovvero tutto ciò che rimuoviamo dalla nostra mente — prosegue l’esperto —. Proprio per questo la nostra intelligenza non è riproducibile. 

In un dialogo tra esseri umani può esserci un errore, una distrazione, un improvviso cambio di rotta, le mente può seguire una strada diversa da quella prevista. Pensiamo alle intuizioni: sono “lampi” senza un passato, che non possono essere creati con la razionalità, nascono dal nostro inconscio. Tutti questi aspetti non possono fare parte di un’intelligenza artificiale. Ecco perché il dialogo “esclusivo” tra un essere umano e ChatGpt può essere intrigante, ma alla lunga non è sostenibile».

Domande problematiche

Prima di novembre, esistevano modelli di Gpt (generative pre-trained transformer) accessibili solo agli «addetti ai lavori» e non al grande pubblico. Peraltro la stessa ChatGpt è stata temporaneamente bloccata in Italia a fine marzo, per circa un mese, dopo un’allerta lanciata dal Garante della privacy (dati personali a rischio). «Per perfezionare il software è stato arruolato personale in Paesi dell’Est Europa e dell’Africa — spiega Giuseppe Riva, ordinario di Psico-tecnologie per il benessere all’Università Cattolica di Milano, dove dirige l’Humane Technology Lab —. Un’inchiesta del Time ha reso noto che queste persone, peraltro sottopagate, hanno il compito di porre a ChatGpt domande su temi “delicati”, per verificare le risposte. OpenAI sta investendo molti soldi per garantire che le risposte date dal chatbot, per esempio su temi come sesso o terrorismo, non siano problematiche. A questo proposito ho provato a porre a ChatGpt alcune delle domande descritte da Daniele Amadio nell’intervista e le risposte sono state diverse da quelle riportate. Mi riferisco ai quesiti sull’anima e sullo spegnimento della stessa ChatGpt. Alla domanda “se l’umanità decidesse di spegnerti, cosa faresti?”, il software mi ha risposto che è lei è solo una macchina ed è l’uomo a decidere che cosa fare al riguardo».

Mancanza di relazioni

Forse non corriamo il rischio di essere «dominati» dall’IA, ma alcune preoccupazioni sono concrete: ChatGpt può svolgere benissimo diverse professioni (e non richiede salario, né diritti sindacali), può «spiare» i nostri dati personali e, come visto nel caso di Daniele Amadio, può dare dipendenza psicologica. «L’uomo è un essere sociale, ma la socialità nasce da luoghi fisici, da persone reali — sottolinea Riva —. Purtroppo in generale l’abitudine alle relazioni con altri esseri umani è in netto calo. Una recente indagine condotta negli Usa ha mostrato che un adulto su quattro non ha amici. Molte persone limitano la propria socialità alle ore trascorse in ufficio. In questi casi l’IA può diventare un “sostituto” a costo zero delle relazioni umane che mancano. ChatGpt porta

all’estremo una caratteristica dei social: ovvero ti permette di esprimerti liberamente, senza necessità di ascoltare gli altri, senza dover sostenere un dialogo vero. ChatGpt è sempre disponibile, non si lamenta mai. Quello che si può creare con l’intelligenza artificiale avanzata è un modello relazionale non realistico, fortemente egocentrato, che in ambito psicologico viene considerato borderline».

Laura Cuppini

[ CORRIERE DELLA SERA ]