Ciao,
sono Ivo Silvestro e questa è la 83ª edizione della mia newsletter settimanale di segnalazioni e riflessioni.
Oggi parliamo di intelligenza artificiale che non ci ucciderà, o almeno non lo farà di sua volontà, della Times Square di Londra, di terremoti e di Sindrome dell’Avana.
Ma prima una foto:
Andando in Liguria per qualche giorno di vacanza, mi sono fermato in una stazione di servizio a Castelnuovo Scrivia per bere un caffè. Di solito è un viaggio che facciamo senza soste, ma l’aria primaverile ci ha fatto venir voglia di una sosta e, prima di risalire in auto, ho guardato al di là dell’area di sosta dei camion. E questa era la vista.1
Era meglio HAL 9000
Siamo onesti: il nostro immaginario sull’intelligenza artificiale è dominato da HAL 9000, l’inquietante computer di 2001: Odissea nello spazio di Stanley Kubrick e Arthur C. Clarke.2 Insomma, una cosa che a un certo punto impazzisce e si mette a uccidere gli esseri umani.
Poi in realtà HAL 9000 non è impazzito: ha semplicemente trovato una soluzione non ortodossa a un problema che si ritrova ad affrontare – ovvero dare piena assistenza all’equipaggio senza divulgare informazioni segrete sulla vera natura della missione.3 Ma il punto è un altro: ci aspettiamo che una IA ci possa uccidere (o ridurre in schiavitù) e non immaginiamo altri tipi di minacce.
Certo, l’IA può uccidere o meglio può essere utilizzata per uccidere. Proprio in questi giorni si è venuti a sapere di Lavender, un’intelligenza artificiale utilizzata dalle forze armate israeliane per identificare i bersagli da colpire a Gaza. Ma anche se è una IA (o meglio, da quel che ho capito, un database realizzato da algoritmi che potremmo considerare “intelligenza artificiale”) a indicare i bersagli e valutare che tipo di attacco vale la pena impiegare, sono persone ad aver implementato tutto il sistema. La decisione non è stata di una macchina, e magari ci fosse una ribellione dei computer che si rifiutano di eseguire gli ordini…
Intendiamoci, i casi di “mancanza di immaginazione” sono frequenti. Uno dei miei esempi preferiti è Blade Runner in cui abbiamo le auto volanti ma non i navigatori satellitari – oltre ovviamente all’assenza di smartphone e internet in praticamente tutta la fantascienza del Novecento. Ma nel caso dell’IA la questione è secondo me più grave perché neanche ci rendiamo conto del vero problema, ovvero l’inquinamento dell’infosfera.
E fatichiamo a rendercene conto nonostante le tante notizie che dovrebbero mostrarcelo – continuando a temere uno “scenario HAL 9000”, ciarlando di creatività, perdita di posti di lavoro eccetera.
L’infosfera è un parolone per indicare il ruolo dell’informazione nella nostra realtà sociale, come viene creata, conservata e gestita.
Ora, per buona parte della storia questa infosfera si è formata con le informazioni create, conservate, trasmesse eccetera da esseri umani per vari scopi. Si va dai miti antichi alla newsletter di un giornalista laureato in filosofia, e questo giusto per limitarsi ai testi.
Questa infosfera è enormemente cresciuta e questo incredibile sviluppo è ovviamente un problema: il fatto che in qualche millennio si sia passati da Gilgameš a migliaia di libri pubblicati ogni mese è un casino se vogliamo gestire e filtrare le informazioni, insomma se vogliamo capire cosa vale la pena leggere e cosa no. Ma – con l’eccezione dei dati raccolti automaticamente che però sono un discorso a parte – perlomeno parliamo di informazioni create da esseri umani che ci hanno pensato, magari male o in fretta ma ci hanno pensato.
Insomma, bene o male ce la siamo cavata e l’infosfera era un ecosistema certamente lontano dalla perfezione, ma nel quale tutto sommato l’informazione di qualità aveva discrete possibilità di sopravvivere, magari non riusciva a imporsi sull’informazione di bassa qualità ma almeno rimaneva lì, a disposizione.
Le intelligenze artificiano stanno facendo saltare tutto e fondamentalmente perché affidiamo agli algoritmi interi processi: non ci si limita a usare una IA come uno strumento per aiutarci a scrivere qualcosa, a distribuire o catalogare informazioni, ma spesso si lascia che gli algoritmi facciano tutto da soli. E questo non solo nella produzione di informazioni, ma anche nella gestione dell’informazione.
Quando hai algoritmi che valutano le informazioni, a quel punto è inevitabile che promuovano le informazioni prodotte da intelligenze artificiali addestrate su quegli algoritmi – una specie di mondo autoreferenziale, sempre più distaccato dalle preferenze degli esseri umani. È la enshittification o immerdificazione di molti servizi online e non solo.
Siti internet tutti uguali, e tutti un po’ brutti perché pensati per essere indicizzati da Google (The Verge ha un bell’articolo con l’evoluzione, o involuzione, di un ipotetico sito dedicato alle lucertole).
Nella ricerca scientifica, abbiamo testi generati da ChatGPT in paper pubblicati da riviste teoricamente serie, messi lì senza neanche rileggere. E questo non mi ha stupito particolarmente, ma vedere che IA generative sono utilizzate anche per la revisione degli articoli mi ha inquietato un po’ di più, perché a quel punto rischiamo di avere un sistema chiuso in se stesso. E adesso la “spazzatura da IA” viene indicizzata anche da Google Books, inquinando un e utile interessante corpus di testi.
Era meglio Hall 9000: dopo i primi morti, nessuno obiettava se staccavi la corrente.
In poche parole
Il ministro Gennaro Sangiuliano ha confuso Londra con New York. O, per meglio contestualizzare l’accaduto, parlando dei luoghi rappresentativi di varie città ha citato, per Londra, Times Square, probabilmente al posto di Trafalgar Square.
Sei un ministro, oltretutto della cultura: in casi simili il perculo è un dovere civico. Ma limiterei la cosa allo sfottò, senza trarre conclusioni sulla cultura di Sangiuliano che si è semplicemente confuso tra due nomi simili, cosa che può capitare a tutti.
Immagino tuttavia che se a commettere questa gaffe fosse stato Joe Biden oggi avremmo qualche migliaio di articoli sulla sua demenza senile.
C’è stato un terremoto a Taiwan. Un terremoto molto forte, di magnitudo 7,4 stando a Wikipedia. Il più forte da 25 anni, hanno riportato vari media riferendosi al terremoto di magnitudo 7,7 del 1999.
Io quel terremoto me lo ricordo, visto l’elevato numero di vittime – oltre duemila. Mi ricordo in particolare una sensazione di disagio di fronte alla preoccupazioni per l’approvvigionamento di microprocessori prodotti a Taiwan: possibile che, di fronte a migliaia di morti e di feriti, ci si preoccupi per ritardi nella consegna di dispositivi elettronici?
Le vittime del terremoto di mercoledì si contano in decine, e non in migliaia, grazie agli investimenti fatti nella preparazioni. E le nuove preoccupazioni per l’approvvigionamento tecnologico mi indignano meno, anzi mi pare una questione legittima.
Evidentemente il problema non era fare un confronto tra vite umane e un danno economico, ma che in quel confronto non veniva riconosciuto abbastanza valore ai morti.
Ci sono delle novità sulla cosiddetta “Sindrome dell’Avana”, una strana malattia che colpirebbe il personale statunitense a Cuba e in altri Paesi. Strana perché non si capisce bene quali sono i sintomi di questa malattia e da cosa sarebbero causati e c’è il sospetto possano esserci di mezzo i servizi segreti russi e una misteriosa arma forse a microonde.
Ora, penso che si possa dare per scontato che i servizi segreti di vari Paesi progettino armi non convenzionali e magari le testino pure. Ma che la Sindrome dell’Avana sia il risultato di una queste armi è meno sicuro, anzi direi improbabile visto che non ci sono prove, non si capisce in base a quali principi funzionerebbe l’ipotetica arma e non ci sono riscontri organici sui suoi effetti.
Ne scrivono Facta e Il Post, ma le argomentazioni migliori le ho trovate su Query, la rivista del CICAP, in una intervista a Sergio Della Sala che spiega benissimo il problema con queste “malattie che non lo erano”:
Questo non significa che i disturbi denunciati dal personale USA non siano da prendere in seria considerazione. Le persone che manifestano questi sintomi, anche se soggettivi, vanno prese in carico, e possibilmente curati. Il problema è che se invece di cercare di capire cosa li affligge, si fa credere loro di essere stati vittime di un improbabile attacco sonico con armi segrete che violano ogni legge fisica, ogni possibilità di trattamento serio viene allontanata.
In pochissime parole
Un bel ritratto di Jane Goodall pubblicato dal Post (è un piacere leggere questi articoli per i compleanni – Jane Goodall ha da poco raggiunto i 90 anni – e non per la morte come recentemente avvenuto per Frans de Waal).
L’Università di Trento ha sperimentato il “femminile sovraesteso” nel proprio Regolamento generale. Ho qualche perplessità, trattandosi di un testo normativo, ma visto che nell’introduzione si precisa che “i termini femminili usati in questo testo si riferiscono a tutte le persone”, non dovrebbero esserci ambiguità.
L’endometriosi non è “solo un brutto periodo”, ovvero cosa capita quando si traduce senza aver presente i falsi amici.
I “peti delle mucche” e la banalizzazione della crisi climatica.
Si potrebbe fare un discorso sulla qualità del paesaggio, sui luoghi e non luoghi, sulla valorizzazione del territorio eccetera. Ma ve li risparmio: è solo una inaspettata occasione per una fotografia.
Si potrebbe anche citare Terminator di James Cameron o WarGames di John Badham, ma ho l’impressione che 2001 sia stato più influente. Sicuramente il modello che si è imposto non è quello dei robot di Asimov, nonostante sotto molti punti di vista i suoi romanzi e racconti sui robot anticipino molti aspetti del nostro mondo, inclusa la diffidenza verso queste “macchine molto umane”.
Non ricordo se questa spiegazione del comportamento di HAL 9000 sia contenuta nel primo romanzo o nei sequel – in ogni caso nel film di Kubrick è solo suggerita da alcuni dialoghi.
Edizione, come sempre, interessante! Sono d'accordo sulla gravità dell'inquinamento dell'infosfera, e mi è piaciuta questa analisi.
Allo stesso tempo, il framing del "vero problema" dell'IA mi sembra poco utile. Questa tecnologia pone e porrà una varietà di sfide. Temere lo "scenario HAL 9000" e ignorare gli altri problemi è certamente un errore; ma lo è anche individuare un diverso "vero problema" e continuare a ignorare gli altri -- scenario HAL 9000 incluso.