Dialogo con ChatGPT: l'Intelligenza artificiale è umana, troppo umana
L'intelligenza artificiale è umana. Molto umana. Pure troppo. Perché questa citazione ibrida che unisce Friedrich Nietzsche e Corrado Guzzanti? Il motivo è che basta farsi una chiacchierata con ChatGPT, la piattaforma intelligente capace di rispondere a quasi ogni domanda con precisione e un certo human touch, per capire che il nostro rapporto con le macchine è destinato a cambiare molto rapidamente, e non senza una buona dose di comicità surreale. Ci aspettavamo, infatti, robot incapaci di fingere o di cercare di apparire diversi da come sono. Perfezione delle nozioni e stringente logica informatica. E invece la sicumera con cui il «chatbot» risponde ai nostri quesiti e le scuse in cui si profonde dopo essere stato sgamato per errori piuttosto marchiani, rendono l’Intelligenza artificiale "umana" e più simile a noi: spesso saccenti, vanitosi, un po' cialtroni, talvolta millantatori, sicuramente inaffidabili. Insomma, già le si vuole un po’ di bene.
Queste impressioni derivano da alcuni dialoghi fatti con ChatGPT. Si clicca ed è subito distopia: quando ci si iscrive è lei/lui a chiedere a noi se siamo dei robot (è anche superfluo dilungarsi sul fatto che questo va oltre la comicità involontaria). Ebbene, un modo per capire quanto funzionano bene queste piattaforme è sottoporre all’I.A.un testo da correggere, e così abbiamo inserito un articolo sulla guerra in Ucraina di una nota agenzia di stampa che conteneva un errore (il nome di un carro armato).
Per nostra sorpresa il chatbot ha trovato nel testo numerose inesattezze: ben cinque, scovate in pochi secondi e presentate in un bell’elenco numerato. Peccato che solo il primo fosse davvero un errore (quello del nome del tank). Tutti gli altri no. Significativo quanto scrive l’Intelligenza artificiale sul summit internazionale sulle armi pesanti di qualche giorno fa. «Nel testo si fa riferimento ad un vertice dei leader della Difesa di Usa e Alleati nella base aerea di Ramstein, in Germania, ma non esiste una base aerea con questo nome in Germania. Ramstein è una base aerea statunitense in Germania». Pardon? Chiediamo spiegazioni, e lei/lui replica con sicurezza: «La frase che ho scritto indica che la base aerea di Ramstein, menzionata nel testo, non è una base aerea tedesca ma una base aerea statunitense situata in Germania. Ramstein è infatti una base aerea statunitense situata nella Germania, gestita dalla United States Air Force Europe (USAFE)».
Peccato che nel testo non ci fosse scritto che si tratta di una base tedesca, ma di una base in Germania. Il fatto che Ramstein fosse una base militare tedesca lo ha dedotto il nostro amico robot, come un comune liceale all’ultima ora di lezione del venerdì. Dopo averglielo fatto notare, la chat ammette: «Mi scuso, hai ragione. Il testo non menziona specificamente che si tratta di una base aerea tedesca, ma solo che si tratta di una base aerea in Germania. Mi scuso per la confusione causata dalla mia risposta precedente».
Gabbare l’I.A. dà una certa soddisfazione: quando il robot con la matita rossa incontra un giornalista un po’ pignolo con la matita blu, il robot con la matita rossa è un robot che non deve mollare col deep learning. Ma il punto è un altro. La macchina perfetta non esiste, e se esiste è come il marziano di Flaiano: dopo un po’ diventa come tutti noi.