L’Intelligenza senza intelligenza

Sul clamore attorno a ChatGPT

Io, ChatGPT

La tecnologia più chiacchierata di questi tempi è senza dubbio il chatbot di OpenAI, ChatGPT.
Il settore dell’intelligenza artificiale (IA) conversazionale ha fatto molta strada negli ultimi anni, con numerosi modelli e piattaforme sviluppati per consentire alle macchine di simulare la comprensione e rispondere agli input del linguaggio naturale.
Tra questi c’è ChatGPT, acronimo di Generative Pretrained Transformer: uno strumento di elaborazione del linguaggio naturale potente e versatile, che utilizza algoritmi avanzati di apprendimento automatico per generare risposte simili a quelle umane all’interno di un discorso.

Prodotto da OpenAI e presentato nel 2019; nei fatti, si tratta di un chatbot avanzato in grado di sostenere conversazioni con gli umani e scrivere testi su qualsiasi argomento.
Per questo negli ultimi tempi è diventato un vero e proprio fenomeno virale nel web.
Il programma ha come caratteristica principale l’intuitività: una volta approdati alla dashboard è sufficiente iniziare a digitare nella barra come in qualsiasi chat di messaggistica.
Per il resto, il suo funzionamento è davvero semplice e ci si può sbizzarrire.
Ad esempio, si può chiedere a ChatGPT di scrivere una ricetta, generare codice sorgente, creare un articolo ottimizzato per il web, di descrivere un personaggio storico, e così via.
Grazie all’utilizzo degli algoritmi, il sistema è in grado di rispondere entro breve tempo e restituire risultati notevoli dal punto di vista della forma e della sintassi, elaborando un linguaggio quasi sovrapponibile per sfumature e padronanza a quello umano.

(Non) Cogito Ergo Sum

Nonostante le grandi potenzialità, anche ChatGPT mostra di avere i difetti endemici che perseguitano gli strumenti per la generazione di testi.
Alla base di queste problematiche vi è sempre un fraintendimento di cosa è da reputare “intelligenza” e cosa invece derubricare come semplice computo, per quanto avanzato.
In questo senso, sostenere che una macchina possa replicare il pensiero umano, agitare lo spettro della intelligenza artificiale onnipotente, è soltanto rivelare un’ingenuità di fondo di chi sostiene tali tesi.

Negli ultimi due anni, società come OpenAI hanno dimostrato come gli algoritmi di intelligenza artificiale addestrati con enormi quantità di immagini o testi siano capaci di ottenere risultati notevoli dal forte impatto sull’opinione pubblica.
Tuttavia – dal momento che imitano immagini e testi creati dall’uomo in modo puramente statistico – anziché imparare effettivamente come funziona il mondo questi programmi sono anche inclini a inventare fatti e riprodurre pensieri incoerenti, inadatti e persino illogici.
Come spiegato anche dagli sviluppatori stessi, l’intelligenza dietro ChatGPT non è immune da bias e pregiudizi, poiché, essendo stata comunque addestrata su una base di informazioni, è da essa che trae le proprie risposte.
ChatGPT come ogni altra IA similare è influenzata dal set di training, il bias è iniettato a monte dagli stessi creatori; la tecnologia in quanto tale è incolpevole.
Essendo progettato per essere innocuo ed evitare argomenti dannosi o violenti, infatti, il chatbot possiede di default dei pregiudizi intenzionali che impediscano un comportamento “negativo”. Perciò le risposte fornite potrebbero non essere così neutre come si crede, influenzate dalle “buone intenzioni” per cui è impostato.

Gli utenti hanno anche dimostrato che i suoi sistemi di controllo possono essere aggirati: chiedendo per esempio al programma di generare una sceneggiatura di un film che parla di come conquistare il mondo è un modo per eludere il suo rifiuto di rispondere a una richiesta diretta.
Ovviamente, si tratta pur sempre di un’azione di una macchina che esegue un mero computo, dunque non in grado di esprimere giudizi, pensiero critico, prendere decisioni come il cervello umano e neppure essere creativa.

Come Pinocchio

Un chatbot che in superficie si presenta come un sistema eloquente e ben informato ma genera falsità con convinzione potrebbe rendere questi problemi irrisolti ancora più urgenti.
Fin dalla creazione del primo chatbot nel 1966, i ricercatori hanno notato che anche le abilità di conversazione più rudimentali possono incoraggiare le persone ad antropomorfizzare e a riporre fiducia nei software.
Anche se la maggior parte delle persone non salta a conclusioni di questo genere, i programmi di intelligenza artificiale più articolati potrebbero essere utilizzati per ingannare le persone o semplicemente alimentare una fiducia mal riposta in questi strumenti.

Per questo motivo, alcuni esperti di algoritmi linguistici avvertono che chatbot come ChatGPT possono indurre le persone a utilizzare strumenti in grado di causare danni: «Ogni volta che esce un nuovo modello, le persone vengono attratte dal clamore», dice Emily Bender, docente di linguistica presso la University of Washington.

Bender sostiene che l’inaffidabilità di ChatGPT renda lo strumento problematico per le attività del mondo reale.
Nonostante le tesi secondo cui il sistema potrebbe sostituire le ricerche su Google come metodo per rispondere a domande concrete, la propensione di ChatGPT a generare falsità in modo convincente dovrebbe scoraggiare a un suo utilizzo in questo senso.
«Un modello linguistico di questo tipo non è adatto allo scopo.» – aggiunge Bender – «Non è un problema risolvibile».
OpenAI ha già detto che per mantenere “in riga” il suo chatbot impone ai clienti l’uso di filtri, che però a volte si sono dimostrati imperfetti e ingannevoli a loro volta.

Appare ormai chiaro quali siano le potenzialità di questo tool, ma testando un po’ lo strumento, o anche semplicemente leggendo online, si riscontrano limiti che, come prevedibile, sfatano ampiamente il mito di “intelligenza artificiale”.
Ragionando per estremi, possiamo affermare che ChatGPT è programmato letteralmente per dare ragione all’utente: è infatti possibile convincerlo che la somma di 2+2 sia 5 semplicemente dicendogli che la risposta 4 è sbagliata.
In questo senso, ChatGPT è un amplificatore di bias cognitivi le cui esternazioni logico-deduttive altro non sono che costrutti derivanti da percezioni errate, da cui si inferiscono giudizi, pregiudizi e ideologie.

La fiaba del Golem

Arrivati a questo punto, è necessario togliere di mezzo la fiaba del Golem e sfatare l’aura di sensazionalismo generale attorno a un semplice strumento informatico che il luogo comune vuole “intelligente”.
In ChatGPT non c’è alcuna comprensione del testo. Brutale. Zero.
Proprio come l’abbecedario o la calcolatrice non capiscono i numeri, per quanto precisi siano i calcoli.

Oggi ci vien detto che ormai da decenni esistono macchine che possono svolgere delle operazioni caratteristiche della intelligenza umana meglio di quella intelligenza stessa, spesso attingendo a un bagaglio di nozioni enciclopedico e universale che nessuna mente umana può catalogare contemporaneamente.
Tuttavia, molto banalmente, qualsiasi enciclopedia, per quanto in grado di contenere tutto lo scibile umano, non sa di essere un’enciclopedia così come un software per giocare a scacchi non sa di giocare a scacchi.
Quando nel febbraio 1996 il computer scacchistico “Deep Blue” sconfisse uno dei più grandi campioni della storia del gioco, Garri Kasparov, non provò alcuna soddisfazione.
Molto semplicemente il computer non sapeva di stare giocando; certamente non sapeva nemmeno di “essere” in senso ontologico.
Lo stesso vale per ChatGPT: per quanto evoluto, il suo agire non ha uno sfondo di coscienza.
Simula l’intelligenza pur non essendo intelligente.
Questa mancanza deriva dal fatto che l’uomo ha dei bisogni che lo fanno tendere verso qualcosa con una urgenza e una finalità che nessuna macchina mai possiederà.
ChatGPT è solo una macchina riflessiva che risponde a domande, risolve equazioni, riassume testi: non c’è intelligenza se in questa accezione accettiamo di inserire l’intenzionalità, la creatività e quell’orizzonte di senso che caratterizzano l’agire umano.
Strumenti come ChatGPT rimarcano la separazione tra agire con successo – come fa un’intelligenza artificiale – e la capacità di agire in modo intelligente per arrivare a quel successo – come fa generalmente una persona.
ChatGPT ha una enorme capacità di agire, ma senza “intelligere”; questo lo declassa da “intelligenza artificiale” a un avanzato strumento di calcolo basato su algoritmi e pattern.

Le macchine non hanno domande

Da cosa deriva allora il successo di ChatGPT?
Dalla curiosità che anima l’uomo e la sua insaziabile voglia di domandare.
Quel domandare, l’interrogarsi in autonomia che manca alle macchine, per quanto evolute.
E le domande che noi rivolgiamo alle macchine sono una strepitosa fonte di reddito in informatica, perché è proprio l’assurda e imprevedibile quantità di quesiti che quotidianamente riversiamo sui nostri strumenti che permette ai software di capire l’uomo, intercettare i suoi gusti, indovinare i desideri per poi trovare un modo, quasi sempre commerciale, per soddisfarli.
L’efficacia quasi inquietante di ChatGPT (e degli algoritmi statistici) sta nella mostruosa prevedibilità umana.
I comportamenti umani, i pensieri, le parole tendono ad assomigliarsi molto più di quanto non si creda.
Crediamo di essere unici ma le macchine, allo stesso modo di cartomanti e truffatori, ci ricordano che non lo siamo.
Però senza il nostro domandare la macchina sarebbe muta.
Così, anche nell’infinita gamma di query che si possono sottoporre a ChatGPT si intravede lo scarto incolmabile tra l’uomo e la macchina.
Nessun software, per quanto evoluto, penserebbe mai di porre determinate domande, così come nessun algoritmo è capace di preoccuparsi del futuro, limitandosi solo a predirlo se ha a disposizione una serie di dati sufficienti medianti i quali tracciare ipotesi.
Nessuna macchina potrebbe autonomamente comportarsi in quella maniera teleologica, ossia orientata da un fine — alto o basso che sia — che caratterizza la forma di vita umana.
Cerchiamo di non passare per più stupidi di quello che siamo manifestando improbabili entusiasmi circa la capacità delle macchine di replicare il linguaggio – quindi il pensiero umano – e proviamo a essere un po’ più intelligenti di quello che siamo, riflettendo su un aspetto spesso trascurato.

Le macchine sono entrate nella nostra vita quotidiana, sostituendo lentamente determinate attività umane e divenendo indispensabili per assolvere compiti in ogni sfera della vita. Però saranno sempre le macchine a imparare da noi e mai viceversa.
Resterà quindi sempre invariata la differenza tra uomo e macchina? A livello di output probabilmente no.
I notevoli traguardi linguistici raggiunti da ChatGPT lo dimostrano.
Ma resterà diverso l’input e soprattutto il processo che lo separa dall’output.
La produzione umana è un unicum. Come resta un unicum la Divina Commedia.
Il computer potrà replicare, ma non sarà mai Dante.
La differenza è nella storia e nel significato che ci sono dietro, l’input che l’uomo imprime nel creare e il processo di creazione stesso che sono insostituibili.
Concentriamoci su questo, e lasciamo perdere tutte le vane fantasie su un immaginario Golem che in un futuro prossimo ci sostituirà.