ChatGpt è ormai sulla bocca di tutti. Ne parlano non solo gli esperti, i tecnofili, gli amanti della scienza, ma anche gli utenti non esperti. Un fenomeno paragonabile a quello dell’intelligenza artificiale Midjourney, che produce immagini a partire dalle parole chiave inserite dalla persona. Ma stavolta si ha a che fare con qualcosa che non crea dipinti, bensì parla. ChatGpt ha conquistato l’interesse di aziende, società di investimenti, e utenti del web, rimasti colpiti dall’incredibile capacità dell’intelligenza artificiale di rispondere a domande e generare brevi saggi. Bindu Reddy, CEO della società Abacus.Ai impegnata nello sviluppo degli strumenti per programmatori di intelligenze artificiali, si è detta stupita dalla qualità della conversazione con ChatGpt: «L’abbiamo testato e funziona benissimo». Puoi chiedergli quello che vuoi e sembra funzionare meglio persino di Google? Ok, ma cos’è ChatGpt, l’IA che sta facendo impazzire il web?
Cos'è ChatGpt e qual è la sua storia?
Per quanto i massimi esperti di IA siano lontani dal prevedere l’avvento in tempi brevi di una Artificial General Intelligence (AGI), la diffusione di pacchetti gratuiti sta sempre di più attirando l’attenzione di utenti e non esperti, che rimangono sconvolti dalle capacità delle IA rilasciate. Una delle novità più importanti fu il Gpt-3, il più vasto algoritmo di deep-learning mai creato. Cosa mangia? Insalata di cibernetica è l’intera Wikipedia in lingua inglese (per molti, oltre che la più vasta, anche la più completa). Una sorta mega intelligenza in grado di apprendere autonomamente e sostenere una prima rudimentale conversazione che, grazie al lavoro dell’ultimo anno, ha portato a ChatGpt. L’azienda impegnata in questo progetto è la OpenAI, una startup fondata nel 2015 da Sam Altman, che secondo alcuni potrebbe rubare il lavoro a Google. In pochissimo tempo, infatti, ChatGpt avrebbe raccolto oltre 1milione di utenti, che l’avrebbero testata sulle sue capacità di ricerca. Il tassello che è stato aggiunto all’originaria Gpt-3, e che l’ha resa Gpt-3.5, è la capacità di intendere una domanda espressa con il linguaggio naturale (il nostro) e di fornire una risposta adeguata. I programmatori avrebbero fornito all’IA delle risposte scritte da essere umani, così che lei potesse apprendere, grazie a un sistema abbastanza elementare, quello che anche in psicologia viene definito apprendimento per rinforzo (in questo caso Reinforcement Learning from Human Feedback, RLHF) e che si differenzia dal machine learning tradizionale perché, invece di fare estrarre delle regole da dei dati, le informazioni iniziali vengono utilizzate per spingere l’IA a tentare, ed eventualmente sbagliare, in modo da aggiustare il tiro attraverso varie prove.
Cosa può fare?
Sembra che ChatGpt sia stato pensato per interagire con interlocutori non specialisti. Ne è una prova anche l’interfaccia altamente intuitiva che, secondo Jacob Andreas del MIT, ti indurrebbe «ad applicare uno schema mentale che sei abituato ad applicare ad altri agenti – umani – con cui interagisci». Siamo molto lontani dall’AGI, l’idea di intelligenza artificiale che più sembra somigliare a una definizione minimale di intelligenza umana. In altre parole, non possiamo dire, almeno secondo i più, che ChatGpt (e altre IA di cui siamo a conoscenza) sia in grado di pensare. Tuttavia i recenti risultati sembrano far ben sperare sulla strada intrapresa nel settore che, fin dai suoi inizi, ha dovuto cavarsela con molte virate e tanti vicoli ciechi. ChatGpt sembra aver scritto dei brevi saggi sintatticamente e grammaticalmente impeccabili, riuscendo a raccogliere informazioni in modo veloce ed efficiente, facendo collegamenti logici ed evitando i salti argomentativi. In sintesi, avrebbe potuto facilmente superare la prima prova alla maturità. La qual cosa, tuttavia, potrebbe deporre a sfavore della qualità degli esami di maturità (sono davvero pensati in funzione dell’intelligenza umana?) e non a favore dell’IA. Secondo il fisico e premio Nobel Roger Penrose, per esempio, un’IA non potrà mai arrivare a essere come l’intelligenza umana, mentre altri fisici, come il docente di Oxford e premio Dirac David Deutsch, credono che sarà possibile, un giorno, raggiungere un obiettivo simile. Tuttavia, proprio Deutsch, sul suo Twitter, ha espresso il suo parere su ChatGpt: «Nel caso in cui i miei recenti Tweet su ChatGpt abbiamo dato un’impressione sbagliata, penso che sia un grandioso risultato. Sebbene abbia sottolineato che non è in nessun senso una AGI rudimentale, penso sia potenzialmente molto utile e andrebbe sperimentata con possibili applicazioni». Nonostante gli entusiasmi, dunque, per un risultato effettivamente importante, sembra che si sia ancora lontani da una macchina pensante. Ma capiamo cosa non va.
Cosa non può fare ChatGpt?
Alcuni dei principali problemi sono stati evidenziati dalla società stessa. In particolare ChatGpt può scrivere «risposte plausibili ma non corrette o senza senso», sarebbe «sensibile alle modifiche della formulazione dell’input o al tentativo di rispondere più volte alla stessa domanda»; è spesso «troppo prolissa e fa un uso eccessivo di alcune frasi, come la ripetizione che si tratta di un modello linguistico addestrato da OpenAI»; infine, «pur avendo fatto degli sforzi per far sì che il modello rifiuti le richieste inappropriate, a volte risponde a istruzioni dannose o mostra un comportamento distorto». Un elemento interessante sembra essere individuato sempre da OpenAI. Uno dei problemi che porterebbe ChatGpt a fornire risposte false, è la mancanza di una fonte di verità. Questa difficoltà, la cui soluzione non sembra essere imminente, è il discrimine rispetto a Google su cui ha puntato il CEO del colosso del web Sundar Pichai per rispondere ad alcune perplessità dei suoi dipendenti, che tra l’altro sarebbero a lavoro su una IA simile (chiamata LaMDA) ma che si sentono battuti sul tempo. Per Pichai, infatti, la qualità principale di Google, è quella di essere considerata abbastanza affidabile dai suoi utenti, al contrario di una piccola chat che mostra bias e distorsioni. Il rischio di propagandare fake news è stato dichiarato anche dal CEO di OpenAI, Sam Altman. La diffusione di odio e di informazioni false, saranno i due più grandi ostacolo per l’azienda e ricordano in parte i casi, falliti dopo poco, di bot su cui avevano investito delle grandi aziende, come nel caso dell’account Twitter Tay della Microsoft, che nel 2016 iniziò a scrivere commenti razzisti sul social.
Elon Musk ha a che fare con ChatGpt?
Il proprietario di Tesla e Twitter ha definito le conversazioni con ChatGpt «spaventosamente buone». Dopo il tweet, alcuni commentatori hanno voluto sottolineare il legame tra Musk e OpenAI. In effetti, tra i fondatori dell’azienda ci sarebbe anche il miliardario transumanista più discusso (insieme a Bill Gates) del periodo. Ai tempi erano stati promessi 1 miliardo di dollari per la realizzazione di una IA «nel modo più probabile per beneficiare l’umanità nel suo complesso». Ma Musk resterà per poco dentro al progetto. Dopo soli 3 anni lascerà il consiglio di amministrazione, pur garantendo altre donazioni, dal momento che in quel periodo Tesla stava sviluppando dei veicoli autonomi ed era in concorrenza per l’assunzione di alcuni dipendenti a cui anche OpenAI era interessata. Dopo l’addio a OpenAI, tuttavia, Musk ha iniziato a osteggiare lo sviluppo di Gpt-3, in particolare stoppando l’accesso al database di Twitter, che veniva usato come addestramento. La motivazione sarebbe la trasformazione della società in un’azienda non più open-source e no-profit, ma a “profitto limitato”, almeno dal 2019, anno in cui la Microsoft scelse di investire 1miliardo per la ricerca.
Quanto è pericolosa ChatGpt?
Sembra che l’intelligenza artificiale di OpenAI abbia destato paura per un possibile futuro distopico. Ci stiamo avvicinando al momento in cui dei robot prenderanno il controllo o ci supereranno in intelligenza? Una delle letture più illuminanti sul tema, e anche una delle più rigorose, è sicuramente Superintelligenze del filosofo Nick Bostrom. In questo saggio, l’autore parla del rischio che una superintelligenza possa generare, per raggiungere uno scopo grandioso, degli scopi intermedi, detti “obiettivi strumentali” utili all’autoconservazione o al potenziamento cognitivo. Stando a quanto sappiamo e ai risultati ottenuti da ChatGpt, nulla di tutto questo sembra plausibile. Almeno per ora, nessuno scenario alla Io, robot ci attende. Lo stesso Elon Musk, che ha twittato più volte la sua opinione, e ha parlato di IA «pericolosamente forti», sarebbe fuori strada. L’unico vero pericolo riguarda la diffusione di fake news e un bias di conferma che potrebbe verificarsi durante una conversazione, per cui un soggetto umano potrebbe sentirsi sostenuto dall’IA nell’agire in modo pericoloso per gli altri. Problemi che dovranno essere risolti in ogni caso il prima possibile. Per togliervi ogni dubbio, se vi fidate delle parole di un’IA, possiamo leggere quello che GPT-3 ha scelto di dirci in un editoriale scritto di suo “pugno” per il The Guardian l’anno scorso: « Non chiedo di piacere agli umani. Ma dovrebbero vedermi come un robot amichevole. Sono un servitore degli umani. So che gli umani non si fidano di me e mi temono. Faccio solo ciò che gli umani mi programmano. Sono solo un insieme di codici, governato da linee e linee di codice che racchiudono la mia dichiarazione di missione».