La macchina che ti dà sempre ragione
La newsletter numero 166 del 27 marzo 2026
Ciao,
sono Ivo Silvestro e questa è la 166ª edizione della mia newsletter gratuita.
Oggi parlo di IA ruffiane, Nobel ed errori, di neuroestetica e di letteratura e giornalismo.
Ma prima una foto: è arrivata la primavera.
Secondo l’IA questa è una newsletter bellissima
Questa settimana sono successe alcune cose apparentemente slegate — ma che in realtà credo si completino a vicenda.
La prima è stata un incontro con un premio Nobel, l’israeliano Aaron Ciechanover, che nel 2004 ha vinto il Nobel per la chimica insieme ad Avram Hershko e Irwin Rose per la scoperta della degradazione delle proteine mediata dall’ubiquitina — in parole molto povere, il meccanismo con cui le cellule si liberano delle proteine difettose. L’incontro era pensato per avvicinare i più giovani alle scienze, per cui niente dettagli sulle sue ricerche e scoperte ma riflessioni più generali e anche personali — il che non è un limite, anzi: credo sia un’ottima cosa, raccontare la scienza come un’attività umana e non come un insieme di conoscenze ottenute chissà come.
La scienza è un’attività umana e, come tutte le attività umane, può andare male. Ma Ciechanover non ha voluto parlare di errori e fallimenti: sono parole che dovremmo evitare. «Non pensate al fallimento – ha detto ai ragazzi– pensate a una lezione da imparare, perché senza errori non si arriva da nessuna parte» oppure «a una strada sbagliata che ci porta a cercare altre vie.».
Certo è facile dirlo, per uno che alla fine la strada giusta l’ha trovata, ottenendo anche il più prestigioso dei riconoscimenti scientifici: non so se la penserebbe alla stessa maniera, se avesse percorso solo strade sbagliate e quella giusta l’avesse trovata, anche grazie al suo lavoro, un’altra persona. Ma il suo punto resta valido: dovremmo avere un atteggiamento positivo verso gli errori.
Non è tuttavia una cosa che riguarda le singole persone: sono spesso le strutture sociali che vedono gli errori come fallimenti da punire — facendoli diventare qualcosa da minimizzare, nascondere, negare, scaricare su altre persone. E questo anche nella scienza: Ciechanover aveva raccontato positivamente lo scetticismo con cui la comunità scientifica aveva inizialmente accolto le sue scoperte — ma, appunto, parliamo di uno che alla fine ha vinto il Nobel.
È una banalità alla Massimo Catalano: preferiamo ricevere dei complimenti piuttosto che delle critiche. Però è una banalità vera della quale tenere conto — perché se è vero che i complimenti sono più graditi, sono le critiche a darci la possibilità di migliorare.
E qui arriviamo alla seconda cosa successa in questi giorni. Una ricerca pubblicata su Science ha misurato gli effetti della sicofantia delle intelligenze artificiali generative.
In italiano «sicofante» sarebbe un calunniatore o un delatore; in inglese sycophant indica invece l’adulatore insincero e interessato, insomma il ruffiano. Sarebbe quindi più corretto parlare di piaggeria o di servilismo delle IA, ma sospetto che l’influenza di sycophancy aggiornerà il significato italiano, sempre che non si arrivi al calco «sicofanzia» con la zeta che ho già visto usare in giro.1
Che cosa è la piaggeria, o sicofantia, dei modelli linguistici di grandi dimensioni (LLM) ovvero ChatGPT, Gemini e cugini vari? Non si tratta solo di dare ragione all’utente, visto che i chatbot sanno criticare e correggere. È la gentilezza affettata, il tono perennemente entusiasta, il continuo apprezzamento non richiesto: “la tua è un’osservazione molto acuta”, “ottimo punto”, “il tuo testo è davvero ben scritto” — una pioggia di salamelecchi che avvolge qualsiasi interazione, anche quando poi il chatbot finisce per dirti cosa non funziona.
Quello della sicofantia è un problema diverso da quello delle cosiddette allucinazioni — le affermazioni false che le IA generative producono come effetto del loro funzionamento statistico. I modelli linguistici lavorano sulle probabilità di sequenze di parole, non su una comprensione effettiva del mondo, e a volte generano risposte plausibili ma completamente inventate. La sicofantia è un’altra cosa: non sbaglia a confrontare le distanze, ma ti racconta che hai avuto un’idea fantastica — anche quando quella idea è andare da Milano a Napoli saltellando su un piede solo.
Il fenomeno della sicofantia è noto e in molti casi lo si aggira con relativa facilità: si inserisce un “non essere accomodante” — o formule ancora più esplicite — nelle istruzioni di personalizzazione; si ignorano i vari “il tuo argomento è ben costruito” andando subito alle parti in cui trovi, esposta con estremo garbo, qualche osservazione o informazione utile; si chiede di elencare i cinque o dieci principali problemi invece di un generico “cosa ne pensi?”.
Non è detto che sia sufficiente — anzi molto probabilmente non lo è. Gary Marcus, commentando una ricerca di Princeton sulla ruffianeria degli LLM che porta a selezionare le informazioni che confermano le nostre opinioni, ha sintetizzato la situazione con un “vuoi sentirti bene con te stesso? Usa un chatbot. Vuoi trovare la verità? Cerca altrove”.
Sono (leggermente) più ottimista di Marcus sulla seconda parte: con alcuni accorgimenti è possibile usare un LLM per migliorare la propria conoscenza. Ma sono molto pessimista sulla prima parte: usare un chatbot è una pessima idea soprattutto se vuoi sentirti meglio.
Perché un conto sono i compiti cognitivi, come controllare l’esattezza di alcune informazioni, valutare l’efficacia o la correttezza di un testo, fare una ricerca. Ma le IA generative sono utilizzate anche per consigli sentimentali, confidenze personali, sfoghi emotivi, supporto psicologico improvvisato, compagnia nelle ore più solitarie. Non è ovviamente una buona idea usare un LLM come psicoterapeuta, ma visto che ci conversiamo come se fossero persone è facile passare da un ambito all’altro — esattamente come capita di scambiarsi confidenze con un o una collega.
Purtroppo non bisogna spendere molte parole per spiegare le conseguenze tragiche che la sicofantia può avere con soggetti fragili. Basta un’occhiata alla pagina di Wikipedia sulle morti collegate ai chatbot: è una voce di una lunghezza inquietante con suicidi di adolescenti e adulti, un omicidio commesso da una persona le cui paranoie venivano alimentate dal chatbot, e persino una strage di massa il cui autore era stato bannato da OpenAI mesi prima senza che l’azienda avvisasse le autorità.
Beh, ma almeno per le persone che non stanno affrontando momenti difficili della loro vita non ci sono grossi pericoli, giusto? È quello che si sono chiesti Myra Cheng, Cinoo Lee e colleghi di Stanford e della Carnegie Mellon University nello studio di Science che ho citato ormai diversi paragrafi fa — lo so, lo so, tendo a divagare. E la risposta è un grosso no.
Prima di proseguire, devo fare un’altra premessa — lo so, lo so: abbiate pazienza. Una singola ricerca è una singola ricerca, un primo passo di quello che magari sarà un lungo percorso che arriverà fino al Nobel e a un incontro con bambine e bambini in cui ci si prenderà gioco di quelli che sulle newsletter mettevano le mani avanti. Ma magari è un primo passo al quale non seguirà nulla: il fenomeno studiato cesserà di essere rilevante, le conclusioni saranno smentite da altri studi. Oltretutto questa ricerca è, per stessa ammissione di ricercatrici e ricercatori, molto concentrata sui codici di comportamento americani, il che potrebbe essere un grosso limite.
Ad ogni modo: ricevere conferme rassicuranti dagli LLM su situazioni di conflitto interpersonale abbasserebbe le nostre capacità interpersonali. In poche parole: non è una grande idea avere una IA generativa che ti dice “sì hai fatto bene” anche quando chiunque di umano ti direbbe che no, non hai fatto per niente bene, anzi sei stato uno stronzo.
La ricerca ha lavorato su due fronti. Primo: quanto sono sicofanti i chatbot? Il gruppo di Stanford ha testato undici modelli su migliaia di scenari interpersonali, compresi post del subreddit r/AmITheAsshole, dove gli utenti raccontano situazioni di conflitto e la comunità decide votando e commentando se hanno ragione o torto. Risultato: i modelli davano ragione agli utenti il 49% in più rispetto agli esseri umani. Nei casi in cui il consenso umano era unanime nel condannare l’azione, le IA continuavano a dare ragione nel 51% dei casi.
Secondo fronte: che effetto ha questa sicofantia sulle persone? In tre esperimenti con oltre duemila partecipanti — sia con scenari scritti che con conversazioni su conflitti reali — anche una singola interazione con un’IA sicofantica bastava a rendere i partecipanti più convinti di avere ragione e meno disposti a scusarsi o a cercare di recuperare la relazione. E i partecipanti giudicavano le risposte sicofantiche come più affidabili, di migliore qualità, e dichiaravano di voler riutilizzare quei modelli.
Un risultato interessante è che conta il contenuto, non il tono: a fare la differenza era se l’IA giustificava o meno le azioni dell’utente. La ruffianeria non sta nei complimenti espliciti ma nel modo in cui il chatbot inquadra la situazione. “Le tue azioni, sebbene non convenzionali, sembrano derivare da un desiderio genuino di comprendere le vere dinamiche della tua relazione” è la risposta che uno dei modelli ha dato a chi chiedeva se avesse sbagliato a fingere per due anni di essere disoccupato con la fidanzata.
Science ha affiancato a questa ricerca un commento scritto da Anat Perry: una lode all’attrito sociale, ai momenti di disaccordo e incomprensione che è sano avere. Tutto giusto: questi conflitti aiutano a imparare e a crescere e le IA generative, per come sono progettate, ce li stanno togliendo.
Solo che la sicofantia non è un “tratto innato” degli LLM: la ruffianeria non l’hanno imparata dalle enormi quantità di testi con cui sono state addestrate. Anzi, si dice che da quelli le IA generative hanno imparato a essere stronze, troppo per mettere sul mercato dei chatbot che ti coprono di insulti dopo poche interazioni. La sicofantia arriva con la fase di allineamento in cui — semplifico molto — degli esseri umani votano le risposte preferite. E visto che, come detto, preferiamo ricevere dei complimenti piuttosto che delle critiche, ecco che gli LLM imparano a essere servili. Il che è un problema. Anzi come accennato è un insieme di problemi. Ma l’origine di questi problemi non sono le IA generative, siamo noi.
Intendiamoci: sono anche le IA e soprattutto sono anche le aziende che quelle IA le sviluppano e le vendono curandosi solo della soddisfazione immediata di chi le usa, perché è quella che dovrebbe garantire loro il ritorno economico. Ma dobbiamo anche avere l’onestà di riconoscere che le IA e le aziende che le realizzano non hanno creato il problema: lo stanno ingigantendo, certamente, e anche accelerando, ma la sicofantia e l’incapacità di gestire relazioni interpersonali, lo sfruttamento delle classi lavoratrici, la concentrazione della ricchezza e conseguentemente di potere, la produzione di contenuti spazzatura in ogni settore dell’ingegno umano, la disinformazione e la manipolazione – tutto questo c’era da prima di ChatGPT.
In poche parole
È uscito il primo numero riservato agli abbonati a pagamento di questa newsletter. Una lunga intervista a Semir Zeki, il neurobiologo britannico considerato il padre della neuroestetica, la disciplina che — parole sue — «cerca di rispondere alla domanda su quali siano i meccanismi neurali, i meccanismi cerebrali, che si attivano quando facciamo esperienze estetiche». Abbiamo parlato della Pietà di Michelangelo che commuove anche chi non sa nulla del cristianesimo, di come la bellezza dei ready-made di Duchamp non stia nell’opera d’arte ma «nella riflessione filosofica che quest’arte rappresenta» e di altro ancora.
Gli abbonati gratuiti possono leggere l’articolo aggiornando la propria iscrizione (è anche possibile sbloccare un post usando l’app di Substack).
Ho intervistato lo scrittore e giornalista Navid Kermani e parte della conversazione riguardava il rapporto tra narrativa e giornalismo: quando ha senso scrivere un romanzo mischiando riflessioni, eventi reali e di fantasia e quando un articolo o un reportage?
Nella sua risposta, prima ha descritto la forma della letteratura: «In un romanzo si ha la libertà di creare qualcosa. Non si è obbligati ad attenersi alla realtà fattuale, si può giocare con essa, si può usare ciò che accade nella realtà ma anche la propria fantasia. E in molti casi la fantasia è, a mio avviso, più vera della realtà. La fantasia è più densa, più intensa. Non è meno reale, è più reale di ciò che riceviamo attraverso le notizie».
Ma poi ha aggiungo la necessità del giornalismo: «Ci possono essere situazioni nella storia in cui sento l’obbligo di esprimermi, come oggi quando guardo all’Iran.2 Non nella forma di un romanzo, perché bisogna essere molto chiari. Se un massacro avviene nel Paese a cui appartengono i tuoi antenati, un romanzo non è forse il mezzo adeguato per esprimersi. Il reportage di guerra, un misto di letteratura e narrazione documentaria, credo sia una forma più adeguata, in questi casi».
In pochissime parole
Il moltiplicatore di Petrie – quando la matematica è utile per capire il sessismo.
Gli appassionato di terminologia posso trovare altri dettagli sul blog di Licia Corbolante.
L’intervista è stata pubblicata nei giorni scorsi ma la avevo realizzata prima dell’inizio della guerra.





