Un generatore di testi in grado di dialogare con gli esseri umani come se fosse uno di loro, ma non è tutto oro ciò che luccica, spiega il professore: la sua abilità nasce dalla conoscenza e rielaborazione di contenuti già prodotti dall’uomo, non ha emozioni né facoltà umane.
Tutto cominciò come per un gioco. Il risultato fu un resoconto sul giornale dal titolo che era affermazione per metà e per metà domanda. Enigmatico, provocatorio, angosciante pure. "Questo articolo è stato scritto interamente da un robot. Sei spaventato, essere umano?". Era il settembre 2020; dal Regno Unito, ad avere l’idea era stato The Guardian, che provava ad anticipare tutti e tutto. Visioni; paure.
Da GPT-3 a Chat-GPT: finalmente per tutti
Se ne iniziò a parlare per davvero allora, quando ancora le definizioni erano modeste e la tecnologia alle sue battute prime. Il giocattolino, capace di tanto, si chiamava GPT-3; qualcosa che sarebbe finito presto nel dimenticatoio dell’opinione pubblica, ma che intanto cresceva nei laboratori, acquisiva nuovi proprietari e diventava ciò che esce allo scoperto oggi, o a onor di precisione il 3 novembre del 2022. Ed eccolo lì, il risultato sulla bocca stavolta non dei pochi ma dei più, con il suo nome sempre difficile che in fretta si fa largo fra le novità sconvolgenti di un’attualità veloce e prepotente, affascinante e al contempo spaventoso. C’è chi si lascia prendere dal terrore, convinto che l’uomo sia in pericolo; chi, adottando prospettive opposte, plaude al successo di quello stesso uomo che, a rischio o forse no, con la forza del suo ingegno ha saputo cotanto creare - e superar se stesso. Reazioni estreme, incomprensibili nel loro essere così estremamente disparate, scatenate da quel "generatore di testo" - null’altro, in fondo - che è ChatGPT.
Una mole "spaventosa" di informazioni
L’errore di fondo, commesso da chi si scandalizza e va in appresione per se stesso, è però fin nella prima riga di quello scritto che cominciò a presentare il GPT al mondo, quando ancora era molto meno di adesso. «Io non sono un umano - dichiarava quel che allora era "solo" GPT-3 - Io sono un robot. Un robot pensante». Eh, no - o non proprio, riflette Luca Gambardella, che nel settore non è esattamente l’ultimo degli arrivati: scienziato, professore, scrittore e con un curriculum lungo così per quel che attiene l’Intelligenza Artificiale, a cominciare dalla direzione dell’Istituto dalle Molle che, nato a Lugano come istituzione privata, ha finito per gravitare nell’ambito universitario Usi-Supsi. Lui sgombera il campo subito dal primo equivoco. La macchina, questa macchina almeno, non ragiona. Rielabora, casomai: una mole di informazioni che è il vero motivo per cui provare ammirazione, grazie alle quali le facoltà del nostro aggeggio fantastico in due anni si sono amplificate oltre ogni previsione. Ora non solo produce testi. Ora sostiene una conversazione. O così è, se vi pare.
leggi anche
VIDEO Intelligenza artificiale: ecco cosa ci aspetta. Intervista ad Alessandro Antonucci
L’importanza di mettere in dubbio la macchina
Se invece riuscite a mettere in dubbio anche la macchina - e la perfezione di cui l’uomo, col suo senso di inferiorità e devozione, la ritiene capace - vi potrà parere altro. Anche se, sì, la prima impressione poi è sempre quella: di avere a che fare con una mente umana o quasi, che produce pensieri, opinioni e che ha quelle abilità che appartengono all’uomo. Tradotto: il sogno - o l’incubo - che diviene realtà; ma solo per chi perde senso critico. Per gli altri, la storia è differente. Gambardella lo ripete spesso, nel suo periodico invito a riconquistare ciò che davvero rende umani e/o unici. Il senso critico è qualcosa da preservare, approfondire, coltivare. È la via di fuga dal banale, dalla tentazione facile di credere in qualcosa che invece non è, finendo così per commettere l’errore imperdonabile: rifiutare, demonizzare, condannare senza appello e tenere a debita distanza ciò che invece potrebbe diventare una risorsa, purché ben utilizzata.
La svolta: i soldi e le ambizioni di Microsft
Primo dato di fatto: Chat-GPT non è un cervello umano, né qualcosa che ad esso si avvicina, nel senso complesso in cui lo dovremmo intendere. Che cos’è? Al di là delle metafore, nella semplicità dei tecnicismi, «è la versione aggiornata di GPT-3, ideato da OpenAI. GPT è l’acronimo di Generative Pretrained Transformer, cioè un generatore di contenuti realizzati trasformando la mole di testi che il sistema ha a disposizione. Con l’ingresso di Microsoft, dopo l’acquisto di OpenAI, la rete GPT-3 è stata ampliata nel senso di un’interazione uomo-macchina più complessa. Con Chat-GPT è stato fatto un passo avanti: ci si può conversare. La modalità è analoga a quella dei chatbot, vecchia generazione basata sui cosiddetti "alberi di decisione", incapace però di reggere per davvero un discorso. Chat GPT è stato invece addestrato a comprendere e generare linguaggio umano, attraverso l’analisi di una miriade di parole e frasi». Circa 175 miliardi di parametri, padronanza di tutte le enciclopedie cartacee e virtuali, dei testi già prodotti nel passato dall’umanità, in differenti lingue. «È questa variante ad aver mosso l’interesse di un pubblico più ampio, anche perché, per la prima volta, il sistema è stato messo a disposizione anche dei non specialisti. Tutti possiamo provarlo».
Dal testo scritto alla conversazione con l’uomo
Perché proprio ora, anno del Signore 2023? Verrebbe da dire che c’entri qualcosa l’interessamento e la potenza di Microsoft. Spiegazione troppo ovvia. La risposta va cercata piuttosto nelle nuove capacità che il "vecchio" GPT-3" ha acquisito sotto forma di Chat-GPT. Non più solo generatore di testo non conversazionale: con Chat-GPT si possono scambiare battute «in una modalità molto più naturale. La cosa impressionante, rispetto al passato, è il modo in cui la macchina è in grado di mantenere il contesto». Segue colui che parla, passa da un argomento all’altro come potrebbe fare un amico al tavolo di un bar, davanti a un bicchiere di prosecco. È dunque intelligente? «Alla base del test di Turing, ideato per testare l’intelligenza e da qui capire se si è di fronte a una macchina o a un uomo, c’è la conversazione. Chat-GPT sembra perfettamente in grado di reggerla».
La domanda sospesa: risorsa o minaccia?
E dunque, che cosa lasciar prevalere, nell’intimo e nella sua manifestazione al di fuori? Il fascino? Oppure la paura? È giusto averne o è fuori luogo? «Noi specialisti siamo affascinati, perché non era affatto scontato arrivare fino a qui. La bontà del sistema è dovuta al fatto che è stata creata una rete enorme. Chi ha iniziato a costruirla ha fatto una scommessa immensa: Chat-GPT è stato concepito senza avere la certezza che il risultato poi sarebbe stato questo». Niente paura, insomma. «Perché non sono così spaventato? Perché la macchina non ragiona. Genera testo, conversazionale e non: basta. Ho provato a interrogarla, ho fatto delle domande che mi riguardano: ha sbagliato, ovviamente. Non possiamo chiederci quanto sia profondo il suo ragionamento, semplicemente perché non lo fa. Produce cose incredibili; su richiesta genera anche programmi per computer, ma non fa progetti. Sa usare stili diversi, trasforma uno scritto ironico in drammatico con una rapidità e risultati sorprendenti, ma ha dei limiti, che essa stessa conosce. Ho chiesto a ChatGPT se stava dicendo la verità. Mi ha risposto invitandomi a verificare le fonti».
I divieti delle università del Canton Ticino
Qual è dunque l’uso più opportuno? «Come università abbiamo inviato una mail che vieta di utilizzarlo per realizzare una tesi. Per lo studio, però, perché no». E lo scenario qui si fa complesso, carico di perplessità. Come essere sicuri, a questo punto, che non venga poi usata in modo improprio, per coltivare quella che Garbardella stigmatizza come pericolosa «pigrizia», ai confini talora con quel che prende il nome ancor meno lusinghiero di disonestà? Voilà. Il modo c’è. Entra un gioco un’altra macchina, di cui poco si chiacchiera ancora. Pare che Chat-GPT non possa ingannarla come invece potrebbe fare nel confronto con un uomo.
Uso disonesto? Chat-GPT Zero ti smaschera
Si chiama Chat-GPT Zero; l’efficacia assoluta è ancora da dimostrare, ma già esiste e, in linea di massima, sa distinguere fra un testo scritto dall’uomo e uno generato dal computer, alla stregua di altri strumenti già noti e utilizzati per verificare il plagio. Ciò detto, «che male si fa se lo si usa a buon fine? Io stesso ho scritto una frase sbagliata e ho chiesto a Chat-GPT di riscrivermela in italiano corretto. Funziona. Se a frenare è la paura di avere a che fare con un sistema più intelligente dell’uomo, beh, io non ho quell’impressione. Non ragiona. Non prova emozioni. Ripeto, è solo una macchina che genera testo, basandosi su quello che ha appreso da altri testi. La domanda, a questo punto, potrebbe essere un’altra e più sottile: siamo forse anche noi macchine che generano un testo?».
Chat-GPT come un professore che ti aiuta
Si spalancano le porte della filosofia, per chi non ha nulla da perdere e ha invece tanto da capire. Nel frattempo che se ne giunga a una, alcuni ambiti professionali si mostrano quantomeno preoccupati. La scuola in primis e in toto, dai primi anni dell’obbligo agli atenei. Se vogliamo usare una similitudine, «Chat-GPT è come un professore che ti dà una mano. Non mi preoccuperei tanto di Chat-GPT, quanto di qualcosa che da esso prescinde: la pigrizia che cresce. Questo sistema va a toccare e sollecitare una caratteristica umana su cui dovremmo lavorare. Ciò che dobbiamo fare, insomma, non è combattere Chat-GPT, ma abituarci alla non pigrizia, alla curiosità, al desiderio di restare attivi. Se studio Dante, nulla mi vieta di chiedere spiegazioni a Chat-GPT; ma da qui poi bisogna partire con senso critico. L’asticella, semplicemente, si alza, e il nostro compito di studenti diventa nuovo. La scuola oggi ha una missione importante: quella di non demonizzare uno strumento che può essere utile, ma al contrario di trovare il modo di inserirlo nella maniera migliore in un percorso didattico. Come? Mistero, per il momento».
Al lavoro per capire quale (buon) uso farne
L’Università ticinese ha già raccolto la sfida e ha avviato un percorso lungo il quale, oltre a dichiarare illecito Chat-GPT per la stesura di una tesi, è stato istituito un gruppo di lavoro per identificare come la macchina possa aiutare e migliorare insegnamento e apprendimento. Inoltre, nel corso di "Academic Integrity", un modulo è di recente stato dedicato a Chat-GPT, così da indicare in modo chiaro quale uso sia lecito e quale illegittimo. «La reazione è stata rapida. Di certo è qualcosa che va e andrà gestita».
Sarà la fine del giornalismo - o dei giornalisti?
Mentre la scuola intraprende strade, un altro settore inizia però ad agitarsi come se strade non ve ne fossero. È lo stesso che, forse non per caso, ha portato alla ribalta per primo la questione, due anni e più or sono. Chat-GPT sarà la fine del giornalismo, o meglio dei giornalisti? La risposta l’ha data in fondo lo stesso Chat-GPT a Gambardella, qual giorno in cui insieme discutevano di onestà e menzogna. Al giornalista restano altri compiti, per i quali al momento non c’è macchina che tenga. La verifica delle fonti, anzitutto; l’essenza del mestiere. «Anche in questo caso, l’asticella si alza». Anche perché poi c’è una questione non irrilevante con cui fare i conti: si passi l’apparente paradosso, ma Chat-GPT è vecchio. «Al momento, le informazioni che possiede sono ferme al 2021. Non sa ancora interfacciarsi con la quotidianità»: ed è questo il vantaggio che può sfruttare a suo favore chi scrive su un tabloid fatto di carta, una rivista o un sito web.
La nascita di un nuovo stile letterario
Se invece si parla di libri, il discorso si fa sofisticato; ma non necessariamente negativo. «Chat-GPT genera testi e in teoria può scrivere bei romanzi. Il nostro compito è trovare la modalità affinché serva non a esonerarci da un compito, ma a generare qualcosa di buono. Potrebbe dare vita un nuovo stile letterario, una sorta di ibridazione volontaria». Uomo e macchina che collaborano nel far letteratura. «Non ci vedrei niente di male. O perché non utilizzarlo per fare delle sintesi. Fra chi riceve un documento e non lo legge perché è troppo lungo e chi lo legge attraverso Chat-BTP, preferisco il secondo. Personalmente mi impressiona questa capacità di "transfer" che l’arte ha già conosciuto sotto il nome di style transfer, attraverso cui un’immagine, una fotografia per esempio, viene ricomposta utilizzando uno stile che originariamente non gli appartiene, sia Picasso o Van Gogh. La stessa cosa, ora, succede con le parole. È affascinante, anche dal punto di vista tecnico, vedere come questo possa accadere».
L’incapacità di accettare il cambiamento
Resta il fatto che all’essere umano non si può impedire il sentimento. E quando sale la paura, non è cosa che si riesca a cancellare con una rassicurazione, nemmeno ben fondata. Ma certo c’è quantomeno da dubitare della sua ragione d’essere, se Gambardella, alla domanda se vi sia ancora spazio per l’uomo o nel futuro il suo posto sarà definitivamente preso da un computer o da qualcos’altro, risponde in un modo che ci fa riflettere. «Questo è un tema che ci accompagna fin dall’inizio dell’umanità. Di fronte a ogni novità, che sia un GPT o l’invenzione della ruota, la questione si è sempre riproposta. L’uomo ha difficoltà a gestire il cambiamento. Prima di accettare qualcosa che non conosce, mostra una giusta prudenza».
Un mondo ibrido: da qui non si scappa
La storia poi ha dimostrato, quantomeno fino ad ora, che non c’era bisogno di allarmarsi. «Se invece questa volta dovremo armarci e partire, lo faremo. Gli occhi vanno sempre tenuti bene aperti. Ciò che comunque non smetterò di predicare è che sempre più entriamo in un mondo ibrido. Avere però in mano una tecnologia come questa non deve farci mai dimenticare che abbiamo anche un’altra mano che serve a stringere altre mani. Questi strumenti, supportandoci nel gestire meglio il nostro tempo, possono anzi favorire infine l’empatia».
La salvezza: scetticismo, senso critico, curiosità
Non sono tutto dunque le macchine, né ciò che più conta in questo mondo del progresso. «Questa tecnologia ci mette a nudo. Chat-GPT dice sempre la verità? Possiamo distinguere la verità dalla menzogna guardando qualcuno negli occhi. Intendo dire che lo scetticismo nei confronti delle macchine va mantenuto. E per questo dobbiamo studiare la storia, la letteratura, la filosofia. Sbaglia chi sostiene che non servano: servono a darci quel senso critico che chi fa solo programmazione non ha». È qui dunque lo spazio unico e ancora inviolato dell’uomo? «Esatto. Senza dimenticare però che Chat-GPT è anche un’opportunità di business».
Tra telecamere smart e mani robotiche
Ecco dunque che oggi il mondo ne parla e non vuole smettere. Quale sarà il prossimo, altrettando potente argomento di conversazione; quale il futuro Chat-GPT che scandalizzerà di nuovo l’uomo nel prosieguo è difficile da indovinare. «Chiediamolo a Chat-GTP - scherza, ma neanche troppo, Gambardella - Potrei dire le telecamere intelligenti, in grado di capire se ho sonno e ho bisogno di smettere di guidare, se un certo tipo di colla funziona o se la costruzione non reggerà. Io però resto più affascinaro dall’oggi, che dal "fra vent’anni". Una cosa che manca ancora nella tecnologia odierna è la capacità di manipolare oggetti quotidiani con mani robotiche che non siano fragili. Quando si raggiungerà questo livello, cambierà la realtà della robotica at home».
E se fosse invece la fine di Google?
Tutto qui? Dici poco. E comunque c’è subito dell’altro. «Ci manca anche una macchina che fa ipotesi non attraverso l’analisi di scenari pre-esistenti, ma padroneggiando la relazione causa-effetto». Sarà questo il prossimo passo di "avvicinamento" alla mente umana? «Di avvicinamento io non parlo. Certo potrebbe essere un passo grosso in un percorso nei confronti del quale io resto prudente. Ma sia chiaro: Chat-GPT non è una rivoluzione. E chi si deve preoccupare, casomai, è Google, con il suo motore di ricerca che si basa su un modello di interazione molto più semplice. Voglio credere che Microsoft stia pensando di inserire Chat-GPT nel proprio motore di ricerca Bing. E per Google saranno guai. Word, Power Point non avranno difficoltà a integrarlo per aiutare l’utente a costruire un testo».
I problemi di etica e quelli di privacy
Resta poi da affrontare un problema di etica e di privacy. «Sicuri che ciò che raccontiamo a una macchina, attraverso i documenti che le sottoponiamo, resterà fra noi e lei? Io l’ho chiesto a Chat-GPT. Mi ha risposto di sì. Ebbene, se la stessa cosa ce la dice un essere umano, siamo portati a metterlo in dubbio. La macchina no, deve per forza dire il giusto. Dobbiamo imparare il senso del dubitare pure di una macchina. Anche questo è il ruolo della scuola e in questa direzione essa deve andare. Non possiamo aver paura di mettere in discussione le macchine».
L’errore imperdonabile: credere nella perfezione
Questione di abitudine. Quella dell’uomo, da tempi quasi non sospetti, è essere convinto che le macchine, pur nel loro essere prodotto umano, siano senza peccato. «Esatto. Addestriamo invece il nostro senso critico e aggiorniamolo ai nuovi strumenti che si presentano al mondo, fin dalla giovane età. Ma non ignoriamoli: sarebbe un clamoroso errore».
© RIPRODUZIONE RISERVATA
Iscriviti alla newsletter