A febbraio, il Peabody College of Education and Human Development, parte della Vanderbilt University nel Tennessee, ha scioccato l’intera comunità inviando una lettera di consolazione agli studenti in seguito alla sparatoria in una scuola nel Michigan. Sebbene la lettera parlasse del valore della comunità, del rispetto reciproco e dello stare insieme, alla fine del messaggio, in caratteri piccoli, l’email diceva: “Parafrasato da ChatGPT di Open AI, modello di linguaggio AI, comunicazione personale“.
Qualche mese fa un utente ha provato a digitare frasi senza senso ed è rimasto confuso e in parte inquietato nello scoprire che Dall-E, algoritmo di intelligenza artificiale capace di generare immagini a partire da descrizioni testuali, sembrasse avere un’idea molto chiara di cosa fosse un Crungus: una figura rabbiosa, nuda e simile a un orco. Gli utenti di Twitter sono stati veloci nel descrivere il Crungus come “il primo criptide dell’Intelligenza Artificiale“, una creatura simile al Bigfoot, ma che esiste, in questo caso, all’interno del territorio poco esplorato dell’immaginazione dell’AI. Ciò è tutto quello che possiamo sostenere in questo momento, a causa della nostra limitata comprensione di come funziona il sistema. Non possiamo scrutare nei suoi processi decisionali perché il modo in cui queste reti neurali “pensano” è intrinsecamente non umano. È il prodotto di un ordinamento matematico incredibilmente complesso e completamente diverso dal modo storico ed emotivo in cui gli esseri umani ordinano il loro pensiero. Il Crungus è un sogno che emerge dal modello del mondo dell’AI, composto da miliardi di riferimenti che, slegati dal loro contesto originario, si sono fusi in una figura horror di un gioco svincolata dall’esperienza umana. Il che va bene, ma fa sorgere una domanda: quale composto della cultura umana ha prodotto questo incubo?
Un’esperienza simile è accaduta ad un artista digitale che stava sperimentando il sistema con prompt negativi, una tecnica per generare ciò che il sistema considera essere il polo opposto di ciò che viene descritto. Quando l’artista ha inserito Brando::-1, il sistema ha restituito qualcosa che somigliava a un logo di una casa di videogiochi chiamata DIGITA PNTICS. Che questo possa essere, attraverso le molteplici dimensioni della visione del mondo del sistema, l’opposto di Marlon Brando sembra abbastanza ragionevole. Ma quando ha verificato se funzionava anche al contrario, digitando DIGITA PNTICS skyline logo::-1, è successa una cosa molto più strana: tutte le immagini raffiguravano una donna dall’aspetto inquietante con occhi affossati e guance incavate, che l’artista ha chiamato Loab. Alimentando l’immagine con prompt di testo sempre più divergenti, Loab continuava a riapparire in forme sempre più spaventose, in cui dominavano il sangue, l’orrore e la violenza.
Ora, sebbene conosciamo molto poco del “processo creativo” di questo sistema, sappiamo una cosa: esistono delle aree, reti di associazioni, che il sistema sa molto bene perché ha fin troppi dati a riguardo. Le immagini sui gattini o sulle auto sono cose ben note all’AI perché ne è piena la Rete. Sfruttando questo volume di dati, il sistema si muove con una certa logicità creando immagini e testi facilmente comprensibili. Ma quando vengono utilizzati prompt negativi o frasi prive di senso ecco che si apre l’inconscio dell’intelligenza artificiale. Per soddisfare tali richieste, la macchina deve attingere a connessioni più esoteriche, incerte. Qui, nelle regioni più remote del suo pensiero, si trovano i Loab e i Crungus. Ciò che lascia perplessi e pone interrogativi dalle risposte scomode è la tendenza del sistema ad associare ciò che non conosce, o che conosce poco, ad immagini inquietanti; perché Crungus e Loab sono figure dell’orrore, più vicine al mondo dell’incubo che del sogno? Che sia la prova che questi sistemi siano davvero molto bravi a replicare la coscienza umana, fino a riprodurre il terrore che si annida nelle profondità dell’esistenza? Se così fosse, dovremmo riconoscere che questa capacità sarà una componente persistente delle macchine che costruiamo a nostra immagine. Non c’è scampo da tali ossessioni e pericoli, né moderazione né ingegneria che possano eliminare la realtà della condizione umana. Il disgusto, l’ossessione della morte e la paura dello sconosciuto sono parte di noi proprio come la speranza e la gioia.
L’AI si basa sui pregiudizi del suo creatore, come le webcam che riconoscono solo i volti bianchi o i sistemi di polizia preventiva che assediano i quartieri più poveri e periferici. Tema delicato, dato che il campo su cui si sta giocando questa sfida è quello dell’immaginazione e della creatività. E proprio perché la creazione non è ex nihilo ma è un’arte combinatoria, l’AI si pone al livello dell’artista, interagendo con le emozioni umane, e ciò le permetterà di plasmare e influenzare il mondo a livelli sempre più profondi e persuasivi. Come dimostrato da un esperimento di Hugging Face, sistemi di AI come Stable Diffusion o Midjourney hanno la pericolosa tendenza a riprodurre pregiudizi presenti nella società. Durante il test condotto dagli scienziati dell’azienda statunitense, nel 97% dei casi, alla richiesta di ritrarre una persona in una posizione di potere, le AI hanno prodotto immagini di maschi bianchi. Un esperimento simile è arrivato da un utente che ha postato su Reddit un breve video intitolato “Come Midjourney vede i professori, a partire dal Dipartimento di provenienza“. Il contenuto mostra una visione quantomeno stereotipata: docenti uomini di ingegneria, fisica e matematica; insegnanti donne di storia dell’arte o di altre discipline umanistiche. L’ultimo esempio, in ordine di tempo, è quello di Smash or Pass, una piattaforma online che consente di valutare in modo positivo o negativo immagini femminili. Foto di persone che non esistono, generate dall’intelligenza artificiale. Con il voto, l’AI dovrebbe essere in grado di capire i gusti dell’utente e di creare immagini sempre più gradevoli per lui o lei. A parte l’architettura stessa della piattaforma, sessista già dal design, a colpire sono le immagini. Seni enormi, visi senza imperfezioni, donne giovanissime, quasi tutte bianche: l’intelligenza artificiale generativa ha un’idea decisamente stereotipata della bellezza.
Stereotipi che influenzano non solo l’aspetto emotivo, ma anche quello informativo. ChatGPT, programma che imita la conversazione umana, al punto tale da essere in grado ad esempio di risolvere problemi matematici, e sistemi simili offrono spesso informazioni errate. E non perché l’algoritmo che c’è dietro sia sbagliato, ma perché questi programmi sono fondamentalmente stupidi. Nel corso degli ultimi 20 anni le grandi aziende tecnologiche hanno raccolto enormi quantità di dati sulla cultura e sulla vita di tutti i giorni da costruire data center enormi. E il fiotto di software di intelligenza artificiale che stiamo vedendo ne è il risultato. L’AI è molto brava a produrre ciò che sembra sensato, e soprattutto a produrre cliché e banalità, che hanno costituito la maggior parte della sua “dieta”, ma rimane incapace di relazionarsi in modo significativo al mondo così com’è.
La credenza in questo tipo di intelligenza artificiale come qualcosa di effettivamente competente o significativo è attivamente pericolosa. Rischia di contaminare la fonte del pensiero collettivo e la nostra stessa capacità di pensare. Se, come proposto dalle aziende tecnologiche, i risultati delle query di ChatGPT saranno forniti come risposte a coloro che cercano conoscenza, e se, come suggerito da alcuni commentatori, ChatGPT verrà utilizzato in classe come strumento didattico, le sue allucinazioni finiranno per entrare nel registro permanente, venendo di fatto legittimate.
La credenza in questo tipo di intelligenza artificiale come qualcosa di effettivamente competente o significativo è attivamente pericolosa.
Non c’è mai stato un momento nella storia in cui la nostra capacità individuale di ricercare e valutare criticamente la conoscenza sia stata così necessaria, anche per colpa dei danni che le aziende tecnologiche hanno già causato nei modi di diffusione dell’informazione. Affidare tutta la nostra fiducia nei sogni di macchine mal programmate significherebbe abbandonare del tutto tale pensiero critico. Ma qui non parliamo solo di intelligenza artificiale. È tutto il compendio di piattaforme d’informazione che rischia di portarci in un corto circuito. Nel quinto capitolo delle Lezioni americane. Sei proposte per il prossimo millennio Calvino si focalizzava sulla molteplicità, sottolineando come già alla fine del secolo scorso era sempre più forte e vivida l’idea di un’enciclopedia aperta, un ossimoro che sottolinea l’esigenza di qualcosa che non fosse più limitato, ma plurimo e al tempo stesso universale. Una previsione anticipata già da Herbert George Wells nel saggio World Brain del 1938:
L’asse di sviluppo più favorevole al genere umano consisterà nell’organizzazione di un nuovo organo mondiale, capace di riunire, indicizzare, riassumere e rendere disponibili le conoscenze.
A ben vedere questo organo si chiama Wikipedia. Uno spazio dove l’accesso al “sapere” è immediato (wiki è un termine hawaiano che vuol dire veloce) e in cui non c’è più distinzione tra autore, lettore ed editore: l’identità autoriale svanisce diventando, per citare lo storico Miguel Gotor, un “soggetto collettivo“. Come per le piattaforme AI, anche Wikipedia si basa sul principio del Neutral Point of View, in cui neutro non è sinonimo di obiettivo, ma di consensuale. È un sapere chiuso, una referenzialità mediatica che si basa su un sistema di dati più o meno oggettivi, stimolando quello che è, sempre per citare il professor Gotor, una circolarità dell’identico. La conoscenza asettica proposta dalle enciclopedie wiki non è conoscenza, giacché quest’ultima si basa su una pluralità di giudizi critici, spesso basati su ricerche innovative e originali. Sia il mondo Wiki che quello AI si basano più sulla quantità dei dati massivamente raccolti che sulla qualità delle informazioni. Tutto il contrario di quello che è il sapere. Oltretutto, queste tecnologie fanno male anche al pianeta. L’addestramento di un singolo modello di intelligenza artificiale – secondo una ricerca pubblicata nel 2019 – potrebbe emettere l’equivalente di oltre 284 tonnellate di anidride carbonica, che è quasi cinque volte l’intera vita dell’auto americana media, compresa la sua produzione. Si prevede che queste emissioni aumenteranno di quasi il 50% nei prossimi cinque anni, il tutto mentre il pianeta continua a riscaldarsi, acidificando gli oceani, innescando incendi, generando super tempeste e portando le specie all’estinzione. È difficile, dunque, pensare a qualcosa di più assolutamente stupido dell’intelligenza artificiale, così come viene praticata oggi.