Ciao,
sono Ivo Silvestro e questa è la mia newsletter di inizio settimana, in cui segnalo alcune storie interessanti per alleviare l’inevitabile tedio del lunedì mattina.
Ma come sempre, prima di iniziare, una foto:
Parlare di salute mentale, di nuovo
Benessere su prescrizione di Anna Paola Lacatena, Il Tascabile
Settimana scorsa, nel riprendere un articolo del Guardian sulla qualità dei consigli che circolano online sulla salute mentale, mi dicevo preoccupato soprattutto dal fatto che molti di quei video patologizzano normali reazioni psicologiche. E il tema ritorna anche in questo articolo, tanto che se l’avessi letto prima li avrei inseriti in un’unica segnalazione.
Si parla sempre di considerare malattie quelle che sono situazioni psicologiche normali, si guarda agli interessi economici che ci stanno dietro (in questo caso: industrie farmaceutiche), ma l’approccio è diverso e leggo, nell’articolo di Lacatena, una fastidiosa nostalgia per un passato in cui le persone non prendevano psicofarmaci. Non è che si dica che una volta eravamo tutti più felici e adesso le case farmaceutiche ci hanno convinto del contrario, l’articolo affronta la complessità della situazione ma mi sembra che, nel rendere conto di questa complessità, si sottovaluti un po’ la maggiore attenzione alla salute e al benessere mentale. E al fatto che sì, consumiamo più psicofarmaci ma il consumo di alcol è calato di molto (nell’UE si è passati da oltre 12 litri di alcol puro per persona nel 2000 a meno di 11 nel 2019), e forse le due cose non sono slegate.
Le macchine non pensano. E quindi?
A knockout blow for LLMs? di Gary Marcus, Marcus on AI
Sono un po’ in imbarazzo, di fronte agli articoli sul fatto che gli LLM (i large langage model, insomma le IA come ChatGPT) non ragionano. L’imbarazzo è in parte dovuto al fatto che ormai questa cosa dovrebbero saperla tutti, magari la si ignora come capita con le raccomandazioni sullo stile di vita sano, ma non è che uno mangia male perché non conosce la piramide alimentare, lo fa perché il cibo zuccherato e grasso è buono. Ma l’imbarazzo è anche dovuto al fatto che ok, ChatGPT non ragiona ma rimastica in maniera incredibilmente sofisticata i testi con cui è stato addestrato. E quindi? Invece di fare lo scandalizzato a dirmi “non c’è una mente dietro quei testi”, spiegami cosa ha senso e cosa non ha senso farci. Che è più o meno quello che fa Gary Marcus in questo articolo, partendo da una recente ricerca di Apple sui limiti di ragionamento degli LLM. Che, come riassume Marcus, hanno difficoltà a generalizzare andando oltre i dati con cui sono stati addestrati. Il che mi sembra utile sia per farsi un’idea su come usarli, sia per lasciar perdere quelli che danno per imminente una IA generale in grado di fare tutto, incluso salvare l’umanità.