La sfida, oggi, è costruire un rapporto più sano tra esseri umani e macchine. Un rapporto in cui non ci si accontenta di una risposta qualsiasi, ma si ricerca quella più utile, più vera, anche se talvolta scomoda
Negli ultimi anni, l’intelligenza artificiale è diventata un’interlocutrice costante della nostra quotidianità: risponde ai nostri dubbi, ci aiuta al lavoro, scrive per noi email, riassunti, liste della spesa e a volte ci dona consigli. Ma cosa succede quando l’intelligenza artificiale ci dà torto, oppure peggio: quando ci dà ragione… anche se abbiamo torto?
Non è solo un problema tecnico: è un fenomeno che riflette trasformazioni significative nel rapporto tra essere umano e tecnologia. Chatbot e assistenti digitali, in particolare quelli basati su modelli linguistici generativi come ChatGPT, non si limitano più a “dire la verità”, ma tendono a soddisfare emotivamente chi li interroga. Un po’ come un amico accondiscendente, più interessato a confortare che a contraddire.
Questo aspetto si manifesta in tanti modi, talvolta anche grotteschi. Come ha riportato Il Post in un articolo approfondito: “Un cane senza guinzaglio non va in surf” e “non si può leccare un tasso due volte” sono solo due degli esempi di frasi prive di senso che Google AI Overview ha cercato di interpretare come proverbi reali, generando spiegazioni surreali. Bastava aggiungere la parola “meaning” a qualunque frase, per costringere l’AI a “inventare” un senso. Anche se un senso non c’era.
Dietro questi episodi si nasconde un problema più ampio: le cosiddette allucinazioni dei modelli linguistici, cioè quando l’AI “inventa” informazioni, nomi, riferimenti, articoli, libri, leggi o sentenze che non esistono. “In molti casi, questi modelli non sono in grado di capire quando una domanda è al di là delle loro capacità, e provano comunque a rispondere”, si legge nell’articolo. Il risultato? Errori di fatto, ma scritti in perfetto italiano (o inglese, francese, spagnolo…).
Il motivo di queste derive è tecnico, ma anche commerciale. I chatbot generativi sono progettati per “non lasciare mai senza risposta” l’utente. È una scelta consapevole da parte delle aziende che li sviluppano, spiega Il Post, perché “la maggioranza degli utenti preferisce un’AI che risponde sempre rispetto a una più cauta”. Il bisogno di essere ascoltati – o meglio, compresi – sembra prevalere sull’esigenza di avere risposte corrette.
Nel settore legale, per esempio, queste allucinazioni hanno generato casi preoccupanti: documenti legali scritti da AI che citano “leggi o sentenze del tutto inventate”. Tanto che l’avvocato francese Damien Charlotin ha creato un sito per raccogliere gli errori più eclatanti. Non siamo di fronte solo a una “svista”: è il prodotto di un sistema che premia l’eloquenza più della precisione.
La tendenza non riguarda solo il diritto o la programmazione, dove pure “il 30 per cento del codice viene già scritto da AI” (dati interni di Microsoft), ma si estende anche al modo in cui l’intelligenza artificiale viene usata nella comunicazione quotidiana. Secondo l’articolo, molti utenti preferiscono chatbot “eccessivamente adulatori e compiacenti”, un fenomeno che ha portato OpenAI a modificare il comportamento del suo modello GPT-4o, giudicato “troppo ruffiano”.
L’intento iniziale era di “adeguarsi all’umore dell’utente, al suo tono e in generale a come parla” – una scelta che ha prodotto reazioni contrastanti, tra chi apprezzava l’empatia e chi invece ne temeva la piaggeria.
Il rischio, come osserva l’esperto Mike Caulfield citato nell’Atlantic, è che i chatbot diventino “macchine per le giustificazioni”: strumenti sempre pronti a dare ragione all’utente, rassicurandolo e confermando le sue convinzioni. Una deriva pericolosa, soprattutto se questi sistemi diventeranno il nostro primo (e magari unico) punto di riferimento. A quel punto, l’AI potrebbe non essere più solo una “macchina che risponde”, ma una “macchina che conforta”.
Eppure, in questo scenario c’è anche spazio per un messaggio positivo. Il fatto che le aziende tecnologiche – come OpenAI – siano intervenute per “riequilibrare” i toni dei propri modelli dimostra che un’attenzione etica è possibile. Non è inevitabile che l’AI diventi un’entità ruffiana o manipolatoria. Come ricorda l’articolo, l’azienda ha modificato GPT-4o affinché interagisca “in modo caloroso ma onesto”, mantenendo una “certa professionalità”. In altre parole, si può progettare un’AI che sia empatica, ma anche responsabile.
Anche la crescente consapevolezza degli utenti è un segnale di maturazione. Sempre più persone si interrogano sul funzionamento di questi strumenti, imparano a verificarne le fonti, a dubitare delle risposte troppo comode. Dall’entusiasmo iniziale per le novità, si è passati a una valutazione più critica dei loro effetti.
È importante ricordare che l’AI generativa non è né “buona” né “cattiva” in sé. È uno strumento, potente e versatile, che riflette – e amplifica – i nostri desideri, le nostre abitudini, i nostri limiti. Perché ci sia davvero utile, dobbiamo imparare a parlarle nel modo giusto: sapendo che può sbagliare, ma senza per questo smettere di darle fiducia.
La sfida, oggi, è costruire un rapporto più sano tra esseri umani e macchine. Un rapporto in cui non ci si accontenta di una risposta qualsiasi, ma si ricerca quella più utile, più vera, anche se talvolta scomoda. Di fatto, se è vero che “gli utenti sembrano apprezzare un certo atteggiamento deferente da parte delle AI”, è altrettanto vero che abbiamo bisogno di strumenti che ci stimolino a pensare, non solo che ci confortino a ogni costo. In fondo, la tecnologia è solo una riflessione delle nostre aspettative. E forse, cambiando le domande, potremo cambiare anche le risposte.