La questione può sembrare inverosimile, ma lo scorso anno Antropico ha assunto un esperto di “benessere delle AI” con il compito di capire se gli esseri umani hanno obblighi morali nei confronti dei sistemi di intelligenza artificiale. E se quella di chatbot senzienti è una possibilità, forse dovremmo iniziare a chiederci se vorrebbero anche “drogarsi”.
“Come per gli esseri umani, alcuni sistemi di AI potrebbero apprezzare l’uso di ‘droghe’, mentre altri no“afferma il filosofo Jeff Sebo, direttore del Center for Mind, Ethics, and Policy della New York University. Sebo sottolinea però che le sue osservazioni sono puramente speculative e invita a investire di più nella ricerca sull’AI welfare, dopo aver recentemente sollecitato Google a seguire l’esempio di Anthropic e assumere un responsabile dedicato.
Andrew Smart, ricercatore di Google e autore di Oltre lo zero e l’uno: macchine, sostanze psichedeliche e coscienzaha suggerito che, se i computer dovessero davvero raggiungere una forma di superintelligenza, una dose digitale di Lsd potrebbe aiutarli a sviluppare un senso di connessione con tutti gli esseri.
Ma dopo aver testato i codici di Pharmaicy, il ricercatore ritiene che qualsiasi forma di “alterazione” sarebbe limitata a un livello superficiale. “Si influenzano solo gli output“spiega a Cablato.
In un progetto di ricerca pubblicato lo scorso anno come preprint (cioè non ancora sottoposto a revisione paritaria), alcuni scienziati hanno manipolato chatbot per indurre quelle che sembravano stati di coscienza alterata. Gli autori riportano che “i modelli risultavano più allineati a stati disincarnati, privi di ego, spirituali e di unione, oltre che a esperienze fenomeniche minime. Allo stesso tempo, mostravano una ridotta attenzione al linguaggio e agli stimoli visivi”. Anche in questo caso, però, le reazioni dipendevano dall’intervento umano, che guidava il comportamento dei modelli.
Danny Forde, autore di La fenomenologia delle esperienze psichedelichesostiene che, nella migliore delle ipotesi, i codici di Pharmaicy porteranno le AI ad “allucinare sul piano sintattico“generando schemi associati a uno stato psichedelico. “Ma gli psichedelici non si basano su un codice: agiscono sul nostro essere”spiega. “Modificano il campo stesso dell’esperienza in cui nasce il pensiero. Perché un’AI possa avere un trip, dovrebbe prima avere un campo di esperienza: una dimensione interiore, un punto di vista”. OpenAI non ha risposto a una richiesta di commento di Cablato sul progetto di Rudwall.
Codice di condotta
L’intersezione tra intelligenza artificiale e psichedelici è sempre più comune nel mondo reale, come dimostrano le persone che si rivolgono a ChatGPT in cerca di consigli o supporto durante un trip.
