Ciao,
sono Ivo Silvestro e questa è la 112ª edizione della mia newsletter settimanale di segnalazioni e riflessioni.
Oggi parlo di paure artificiose sull’intelligenza artificiale, di figli d’arte, di economia e di selfie.
Ma prima una foto: una “mondina robotica” che, proprio come le lavoratrici stagionali raccontate in Riso amaro di De Santis, estirpa manualmente le erbacce.
Ho visto questo esemplare al Museo dei trasporti di Lucerna, presentato ovviamente come soluzione per ridurre l’impiego di pesticidi e diserbanti: la prospettiva “togliamo il lavoro a esseri umani” non credo sia molto popolare, al momento, anche se parliamo di lavoratori e lavoratrici sfruttati – certo, oggi le mondine non ci sono più, almeno in Europa, ma la situazione complessiva non è cambiata di molto.
Curiosamente, questo robot viene presentato al museo come soluzione per evitare l’impiego di prodotto fitosanitari con l’estirpazione meccanica. Sul sito del produttore si scopre intanto che è un prodotto ancora in fase di sviluppo, e poi si parla di un impiego mirato di diserbanti.
Sei idee sui rischi dell’intelligenza artificiale
Ho l’impressione1 che nelle discussioni pubbliche sull’intelligenza artificiale – perlopiù limitati alle intelligenze artificiali generative, in pratica ChatGPT – trovi sempre meno spazio la meraviglia per quello che è in grado di fare e sempre di più la paura per quello che accadrà. Per usare due classici della fantascienza, sempre meno Data di Star Trek e sempre più HAL 9000 di 2001: Odissea nello spazio (se non addirittura Skynet di Terminator, che quanto a crudeltà e numero di morti supera HAL 9000 di diversi ordini di grandezza).
Il che va benissimo: un po’ di cautela, di fronte a tecnologie incredibilmente potenti, ci sta tutta. Solo che le paure irrazionali portano a decisioni irrazionali. Timothy B. Lee, nella sua bella newsletter Understanding AI, ha messo giù alcuni punti su cosa dovremmo davvero temere e cosa no, in particolare quello che viene chiamato “rischio esistenziale” che è poi, con sfumature diverse, lo scenario Skynet: l’IA che supera in tutti gli aspetti gli esseri umani e minaccia l’esistenza dell’umanità come la conosciamo.2 Lee riprende le tesi che Arvind Narayanan e Sayash Kapoor hanno presentato nel libro AI Snake Oil che spero venga presto tradotto in italiano.
Come i primi traduttori italiani di Dostoevskij – che partivano dalle versioni francesi visto che non conoscevano il russo –, faccio il riassunto del riassunto.
IA generale, ovvero quella intelligenza artificiale in grado di fare (e meglio delle persone in carne e ossa) più cose, e non solo come adesso un compito specifico. Che poi sarebbe quella che, non avendo più bisogno degli esseri umani, potrebbe ridurli in schiavitù.3 La tesi di Narayanan e Kapoor è che parliamo di un processo graduale e lento: non ci sono la “IA non generale” da una parte e la “IA generale” dall’altra e un bel giorno arrivi a scoprire la soluzione che ti permette di passare dall’una all’altra. Abbiamo invece una lunga scala di IA in grado di fare sempre più cose e sempre meglio. E, in questa scala, siamo ancora ai gradini più bassi.
Discorso simile per l’auto-miglioramento, l’IA che migliora se stessa senza bisogno di interventi umani, facendoci di fatto perdere il controllo: non è una novità e non sarà un cambiamento improvviso ma qualcosa di graduale.
Abbiamo avuto e verosimilmente avremo anche in futuro sempre più potenza di calcolo, ma i progressi dell’Intelligenza artificiali non dipendono solo da processori e algoritmi: è essenziale l’esperienza del mondo reale, dati che possono essere ottenuti solo attraverso interazioni reali, il che richiede tempo.
La forza dell’umanità non è mai stata l’intelligenza del singolo individuo, ma la capacità di mettere insieme le capacità delle persone e delle tecnologie che sono state sviluppate. Homo sapiens è grosso modo lo stesso, quanto a forza e intelligenza, da qualche centinaio di migliaia di anni: la differenza tra noi e i cacciatori-raccoglitori della savana africana è tutta culturale e sociale. Siamo una società ed è probabile che l’intelligenza artificiale, come le altre tecnologie, verrà integrata nella società migliorando la situazione complessiva.
L’intelligenza artificiale può essere usata per arrecare danno ad altre persone – immagino volontariamente o involontariamente –, ma anche per difenderci da questi impieghi dannosi.
Le regolamentazioni sulla sicurezza dovrebbero concentrarsi su minacce specifiche, non su questioni generali come la “minaccia esistenziale”.
Questo, per come l’ho capito, il pensiero di Narayanan e Kapoor Mio. Il mio commento personale è che mi sembrano riflessioni di buon senso. Però ho qualche perplessità sull’approccio generale4 che è quello riassunto nell’ultimo punto: concentriamoci su cose specifiche e a breve termine, lasciando da parte le cose generali e sul lungo termine. Mi sembra lo stesso approccio che, nell’ultimo secolo, abbiamo avuto sul riscaldamento globale e che ci ha portato all’attuale crisi climatica. E, visto che siamo appunto una società, direi che possiamo cercare di dedicare attenzione a problemi specifici e concreti e, allo stesso tempo, prepararci a minacce future, visto che il futuro ha quel brutto vizio di diventare, prima o poi, presente.
In poche parole
Ho visitato una mostra5 dedicata al pittore Spartaco Vela, figlio del celebre scultore Vincenzo Vela. Da quel che si dice nella scheda biografica, da ragazzo era più interessato alle scienze naturali che all’arte, ma il padre l’ha comunque spedito all’Accademia di Brera ed è diventato un discreto pittore. Continuando a interessarsi a cose non artistiche, visto che in mostra c’è un documento su un erogatore di latte di calce da lui sviluppato e presentato a una fiera agricola.
Io di economia ne capisco poco – leggendo L’economista mascherato6 di Tim Harford ho capito che è una disciplina che, più che i soldi, studia il comportamento umano, il che forse spiega la discreta varietà di correnti di pensiero, soprattutto sull’opportunità per gli stati di fare debiti. Dopo aver ascoltato una puntata del podcast Globo dedicata alla Germania e alla sua delicata situazione economica, mi pare di poter concludere che qualche debito può essere opportuno farlo, ogni tanto, pena una mancanza di investimenti che alla fine fa stare tutti peggio.
Se chiedi alle persone cosa ne pensano dei selfie, ti rispondono che loro non ne fanno perché sono una cosa stupida da esibizionisti o comunque da giovani. Se poi chiedi loro di mostrarti le foto per loro più importanti, ecco che saltano fuori dei selfie: perché ovviamente non sono dei selfie come gli altri, quelli significano qualcosa, sono stati fatti in una situazione particolare eccetera.
Da qui l’idea, venuta durante un progetto di ricerca sulla comunicazione visiva interpersonale – insomma come e perché le persone si scambiano fotografie – di mettere in discussione questo doppio standard, con una mostra semplice ma efficace: dei pannelli con da una parte una fotografie che siamo portati a giudicare secondo tutti i pregiudizi del caso, dall’altra la storia di quella foto e perché è così importante. Ho intervistato7 le due persone che ci hanno lavorato e sono venute fuori cose interessanti. Una cosa che non ho avuto spazio per approfondire è l’interessante uso dell’intelligenza artificiale per “anonimizzare” le fotografie. Se ne scrive, per fortuna, su TicinoScienza.
In pochissime parole
Cosa ha sbagliato Kamala Harris – perché è ancora presto per fare ipotesi su come sarà la seconda presidenza Trump, quindi cimentiamoci con l’analisi della sconfitta.
Siamo troppi? Intervista ad Alfonso Lucifredi (del libro ne avevo accennato qualche settimana fa)
Che come tutte le impressioni è basata sul mio personale e soggettivo punto di vista.
Che poi mettiamoci d’accordo: l’attuale “esistenza umana” include cose come guerre, povertà, crisi economiche e la sesta estinzione di massa: se l’IA minaccia tutto questo, io tifo IA.
Sì, sto banalizzando e semplificando le preoccupazioni sui “rischi esistenziali” dell’IA che non sono, almeno non sempre, la semplice riproposizione di banali film di fantascienza.
Avrei anche delle perplessità su alcuni punti, ad esempio la visione molto ottimistica sulle capacità dell’organizzazione sociale di far andare d’accordo le varie individualità a beneficio di tutti. O sul fatto che l’intelligenza artificiale sia una tecnologia come le altre e non abbia caratteristiche proprie (come il fatto di prendere delle decisioni non prestabilite da un essere umano).
Link accessibile: archive.is/7T1qY.
Chissà se alla Rizzoli hanno sistemato un “piccolo” errore di traduzione.
Link accessibile: archive.ph/aRpEt.