Concedetemi un esempio personale, che riguarda il giornalismo ma che sicuramente si può adattare a molti altri contesti. Per il mio lavoro utilizzo quotidianamente Chatgpt e altri strumenti basati sull’intelligenza artificiale. Ovviamente non per scrivere articoli, ma per trovare refusi, individuare la traduzione migliore per un termine inglese (come “Offload cognitivo”), farmi suggerire delle alternative per titoli o sottotitoli quando non mi viene in mente nulla (modificandoli a piacimento o rifiutandoli del tutto), farmi consigliare come rendere più scorrevole un paragrafo che mi sembra involuto (anche solo per “sbloccarmi” e spesso senza poi utilizzare i suggerimenti che mi vengono forniti).
Insomma, credo di impiegare ChatGPT nel modo corretto e non di delegare a esso il mio lavoro (e, in realtà, nemmeno di risparmiare tempo). Eppure, è ovvio che se prendo l’abitudine di chiedere a ChatGPT di suggerirmi come completare un sottotitolo ogni volta che sono bloccato, alla lunga non sarò più in grado di farne a meno e magari perderò qualche abilità creativa. È un processo simile a quello a cui ci ha costretto Google: forse la nostra memoria si è davvero atrofizzata, in cambio abbiamo ottenuto la possibilità di accedere a qualsiasi informazione in qualsiasi momento, spalancando opportunità (anche) intellettuali che un tempo ci erano precluse.
In due parole: pro e contro
Alcune abilità si perderanno, altre si acquisiranno. Per affrontare al meglio i rovesci della medaglia dell’intelligenza artificiale generativa è però indispensabile uscire dalla “narrazione della sostituzione”secondo la quale ChatGPT e gli altri sistemi affini sono sul punto di sostituire l’essere umano.
È una narrazione utile alle aziende che vogliono tagliare i costi e sostituire quanti più dipendenti possibile con le AI, ma non è quella corretta. Le abilità di ChatGPT e gli altri (fondamentalmente, eseguire complicatissimi calcoli probabilistici) non sono sostitutive delle nostre (astrazione, pensiero critico, valutazioni, ecc.), ma complementari a esse.
È anche a causa di questa interpretazione errata dell’intelligenza artificiale che può sembrare corretto valutare l’impatto di ChatGPT sul nostro cervello facendogli svolgere un lavoro al posto nostro. Questi sistemi vanno invece impiegati come se fossero degli assistenti molto volenterosi, ma per niente affidabili. Che possono supportarci ma che vanno usati con cognizione di causa e attentamente supervisionati.
Venire segnala Barbara Larson, docente di Management alla Northeastern University, “Il modo più intelligente per trarre vantaggio dall’intelligenza artificiale è limitarne il ruolo a quello di un assistente entusiasta ma un po’ ingenuo”. Non dobbiamo quindi chiedere a un chatbot di generare direttamente il risultato finale desiderato, ma guidarlo passo dopo passo lungo il percorso che porta alla nostra soluzione. Questo utilizzo dell’intelligenza artificiale non è preferibile a quello sostitutivo (solo) perché ci permette di salvaguardare il cervello, ma soprattutto perché è il modo giusto per sfruttarne al meglio le potenzialità.
Quando sarà passata la fase di montatura pubblicitaria e il nostro rapporto con le intelligenze artificiali sarà più maturoprobabilmente tutto ciò ci sembrerà scontato. E se ciò avverrà, è anche possibile che – tra ciò che si perde e ciò che invece si guadagna – alla fine il bilancio per l’essere umano sia positivo.