Scienza e idee
Collana fondata da Giulio Giorello
Consulenza scienti ca
Telmo Pievani, Corrado Sinigaglia
www.ra aellocortina.it
Titolo originale
How to Stay Smart in a Smart World Why Human Intelligence Still Beats Algorithms
© 2022 Gerd Gigerenzer
All rights reserved.
Traduzione
Riccardo Mazzeo
Copertina
Studio CReE
ISBN 978-88-3285-522-7
© 2023 Ra aello Cortina Editore
Milano, via Rossini 4
Prima edizione: 2023
INDICE
Introduzione
PARTE PRIMA
La storia d’amore umana con l’intelligenza arti ciale
1. Basta un clic per il vero amore?
2. In che cosa eccelle l’intelligenza arti ciale. Il principio del mondo stabile
3. Le macchine in uiscono sul modo in cui pensiamo l’intelligenza
4. Le automobili a guida autonoma sono proprio dietro l’angolo?
5. Il buonsenso e l’intelligenza arti ciale
6. Un punto dati può battere i big data
PARTE SECONDA
L’alto rischio in gioco
7. Trasparenza
8. Come sonnambuli nella sorveglianza
9. La psicologia dell’agganciare gli utenti
10. Sicurezza e autocontrollo
11. Fatti o fake?
Ringraziamenti
Bibliogra a
Crediti iconogra ci
Per Athena
INTRODUZIONE
“Papà, quando eri giovane, prima dei computer, come facevi ad andare su internet?”
Un bambino di 7 anni, Boston1
“Se i robot fanno tutto, allora noi cosa faremo?”
Un bambino di 5 anni in una scuola per l’infanzia, Pechino2
Immaginate un assistente digitale che fa qualunque cosa meglio di voi. Di
qualunque cosa parliate, lui la conosce meglio. Qualunque cosa decidiate, vi
correggerà. Quando elaborate un piano per l’anno prossimo, ne avrà uno
migliore. A un certo punto potreste scegliere di rinunciare a prendere
qualunque decisione di persona. Adesso è l’Intelligenza Arti ciale ( ) che
gestisce con e cienza le vostre nanze, scrive i vostri messaggi, sceglie il
vostro partner romantico e programma quando è il momento migliore per
avere dei gli. Alla vostra porta verranno recapitati pacchi contenenti
prodotti di cui non sapevate nemmeno di aver bisogno. Potrebbe
presentarsi un assistente sociale perché l’assistente digitale ha previsto un
rischio di depressione grave per il vostro bambino. E, prima che perdiate
tempo a tormentarvi su quale candidato votare, il vostro assistente lo saprà
già ed esprimerà il vostro voto. È solo questione di tempo prima che la
vostra vita sia gestita da compagnie tecnologiche e che il vostro assistente si
trasformi in una superintelligenza suprema. Come un gregge di pecore, i
vostri nipoti si rallegreranno o tremeranno di soggezione di fronte al loro
nuovo padrone.
Negli ultimi anni ho partecipato come relatore a molti eventi popolari di
intelligenza arti ciale e ogni volta sono rimasto sorpreso di quanto sia
di usa una ducia incondizionata negli algoritmi. Indipendentemente da
quale fosse l’argomento, i rappresentanti delle aziende hi-tech assicuravano
all’uditorio che una macchina avrebbe eseguito il lavoro con maggiore
accuratezza, rapidità e risparmio. Soprattutto, sostituire le persone con
so ware avrebbe reso il mondo un posto migliore. Nello stesso spirito, ci
sentiamo dire che Google ci conosce meglio di quanto non ci conosciamo
noi stessi, e che l’ può predire il nostro comportamento in modo quasi
perfetto, o che presto sarà in grado di farlo. È la capacità di cui si fanno
vanto le aziende hi-tech quando o rono i loro servizi a inserzionisti,
compagnie assicurative o rivenditori. Tendiamo a crederci anche noi.
Per no quegli autori popolari che dipingono quadri apocalittici di robot che
strappano le budella agli umani suppongono la quasi onniscienza dell’ , al
pari della maggior parte dei più espliciti critici delle aziende hi-tech che
bollano il business come malvagio capitalismo della sorveglianza e temono
per la loro libertà e dignità.3 È questa credenza che induce molte persone a
preoccuparsi di Facebook, ritenendolo una terri cante macchina di
sorveglianza orwelliana. I data leak e lo scandalo di Cambridge Analytica
hanno ampli cato questa preoccupazione facendola diventare un timore
spaventoso. Che si basi sulla fede o sulla paura, il lo della storia rimane lo
stesso e recita più o meno così:
L’ ha scon tto i migliori umani negli scacchi e nel Go.
La capacità di elaborazione raddoppia ogni paio d’anni.
Quindi, le macchine ben presto faranno ogni cosa meglio degli umani.
Chiamiamo questa argomentazione l’ batte gli umani. Le due premesse
iniziali sono corrette, ma la conclusione è sbagliata.
La ragione è che la potenza di calcolo ottiene grandi risultati per un certo
tipo di problemi ma non per altri. Finora, le stupefacenti vittorie dell’ si
sono veri cate in giochi ben de niti con regole sse come gli scacchi e il Go,
e hanno conseguito risultati simili nel riconoscimento vocale in condizioni
relativamente invariate. Quando l’ambiente è stabile, l’ può prevalere
sugli umani. Se il futuro è come il passato, grandi quantità di dati sono utili.
Tuttavia, se ci sono sorprese, i big data – che sono sempre dati del passato –
possono risultare fuorvianti rispetto al futuro. Gli algoritmi dei big data non
hanno saputo prevedere la crisi nanziaria del 2008 e nel 2016 predicevano
la vittoria di Hillary Clinton con un largo margine.
Di fatto, molti problemi di fronte a cui ci troviamo non sono giochi ben
de niti bensì situazioni colme di incertezza: ne sono esempi trovare il vero
amore, prevedere chi commetterà un crimine e reagire a situazioni di
emergenza inattese. In questi casi, una maggiore potenza di calcolo e una
maggiore quantità di dati costituirebbero un aiuto limitato. Gli esseri umani
sono la principale fonte dell’incertezza. Immaginate quanto aumenterebbe
la di coltà degli scacchi se il re potesse infrangere le regole per capriccio o
se la regina potesse calpestare il bordo della scacchiera dopo aver incendiato
le torri per protesta. Quando sono coinvolte delle persone, la ducia in
algoritmi complessi può creare illusioni di certezza che diventano
rapidamente una ricetta per il disastro.
Rendersi conto che gli algoritmi complessi sono in una posizione di
vantaggio quando le situazioni sono stabili, ma che devono combattere con
l’incertezza, esempli ca l’argomento generale di questo libro, restare
intelligenti in un mondo “intelligente”:
Restare intelligenti signi z
ca comprendere le poten ialit à ,
e i rischi delle tecnologie digitali ed
essere determinati a mantenere il controllo in un mondo popolato da algoritmi .
Ho scritto questo libro per aiutarvi a comprendere le potenzialità delle
tecnologie digitali come l’ ma, quel che più conta, i loro limiti e rischi.
Poiché tali tecnologie diventano sempre più di use e dominanti, voglio
fornirvi strategie e metodi per mantenere il controllo della vostra vita
invece di esserne schiacciati. Dovremmo semplicemente metterci comodi e
rilassarci mentre i so ware prendono le decisioni al posto nostro?
Assolutamente no. Restare intelligenti non signi ca prestare fede
inconsapevolmente alla tecnologia, né signi ca di darne ansiosamente.
Consiste invece nel comprendere quel che l’ può fare e quel che non è
altro che la fantasia delle esagerazioni del marketing e delle fedi
tecnoreligiose. Riguarda anche la forza personale impiegata per controllare
un dispositivo invece di esserne telecomandati.
Restare intelligenti non equivale ad avere le abilità digitali necessarie per
usare la tecnologia. In tutto il mondo si moltiplicano programmi educativi
che cercano di aumentare tali abilità tramite l’acquisto di tablet e lavagne
digitali per le classi allo scopo di insegnare agli studenti come usarli. Ma è
raro che questi programmi insegnino ai bambini i rischi insiti nelle
tecnologie digitali. Di conseguenza, molti nativi digitali incredibilmente non
riescono a distinguere annunci pubblicitari nascosti dalle notizie reali e
vengono ingannati dall’aspetto di un sito web. Per esempio, uno studio
condotto con 3446 nativi digitali ha mostrato che il 96 per cento di loro non
è in grado di veri care l’attendibilità dei siti e dei post.4
Un mondo intelligente o smart non consiste nell’aggiungere alle nostre
vite smart , incontri online e altre diavolerie. È un mondo trasformato
dalle tecnologie digitali. Quando per la prima volta si è aperta la porta al
mondo “intelligente”, molti vi hanno visto un paradiso in cui ciascuno
avrebbe avuto accesso all’albero delle informazioni veritiere destinato
nalmente a porre ne all’ignoranza, alle menzogne, alla corruzione. I fatti
relativi al cambiamento climatico, al terrorismo, all’evasione scale, allo
sfruttamento dei poveri e alle violazioni dei diritti umani sarebbero stati
esposti. I politici immorali e i manager avidi sarebbero stati smascherati e
costretti a rassegnare le dimissioni. Si sarebbero scongiurate l’abitudine del
governo di spiare i cittadini e le violazioni della privacy. In qualche misura,
questo sogno è diventato realtà, benché il paradiso sia stato anche
inquinato. Ciò che comunque sta davvero avvenendo è una trasformazione
della società. Il mondo non sta semplicemente diventando migliore o
peggiore. È il modo in cui pensiamo al bene e al male che sta cambiando.
Per esempio, non molto tempo fa, le persone si preoccupavano
enormemente della privacy e scendevano nelle strade per protestare contro
i governi e le corporation che cercavano di sorvegliarle e di impossessarsi
dei loro dati personali. Una vasta gamma di attivisti, giovani radicali e
organizzazioni popolari scatenarono massicce proteste contro il censimento
tedesco del 1987, temendo che i computer potessero de-anonimizzare le
loro risposte, e individui arrabbiati imbrattarono il Muro di Berlino con
migliaia di questionari vuoti. Nel censimento del 2001, in Australia, più di
70.000 persone indicarono come propria religione la “Jedi” (dal lm Guerre
stellari ), e ancora nel 2011 alcuni cittadini britannici protestarono contro
domande che violavano la loro privacy, per esempio quelle relative alla
religione.5 Oggi, mentre la nostra casa “intelligente” registra tutto quel che
facciamo ventiquattro ore al giorno ogni settimana, compreso quel che
avviene in camera da letto, e la bambola “intelligente” di nostra glia
registra ogni segreto che le è a dato, diamo una scrollata di spalle. I
sentimenti di privacy e di dignità si adeguano alla tecnologia o rischiano di
diventare obsoleti. Una volta il sogno di internet era la libertà; per molti,
oggi, libertà signi ca libertà di usare internet gratis.
Da tempo immemorabile, gli esseri umani hanno creato nuove tecnologie
fantastiche che non hanno sempre usato con saggezza. Per bene ciare dei
tanti vantaggi della tecnologia digitale, abbiamo bisogno di uno sguardo e
di un coraggio che ci permettano di rimanere intelligenti in un mondo
intelligente. Non è tempo di metterci comodi e rilassarci, ma di tenere gli
occhi aperti e mantenere il controllo.
Mantenere il controllo
Se non siete sconsiderati, potreste occasionalmente preoccuparvi della
vostra sicurezza. Quale disgrazia pensate sia più probabile che vi accada nei
prossimi dieci anni?
– Essere uccisi da un terrorista.
– Essere uccisi da un automobilista distratto dal suo smartphone.
Se optate per l’attacco terroristico, fate parte della maggioranza. Dopo
l’attacco dell’11 settembre, i sondaggi e ettuati nel Nord America e in
Europa hanno indicato che molte persone ritengono che il terrorismo
costituisca uno dei maggiori pericoli per le loro vite. Per alcune, il maggiore.
Al tempo stesso, gran parte delle persone ammette di messaggiare mentre
guida senza preoccuparsene troppo. Nel decennio 2010-2020, ogni anno
negli Stati Uniti sono state uccise in media trentasei persone in attacchi
terroristici sferrati da islamisti, membri dell’ultradestra o altri.6 Nello stesso
periodo, ogni anno sono state uccise tremila persone da guidatori distratti,
spesso intenti a inviare messaggi dallo smartphone, a leggere o a trasmettere
in streaming.7 Un numero che equivale a quello del bilancio di vittime
dell’11 settembre, ma ogni anno.
La maggior parte degli americani ha anche più paura del terrorismo che
delle armi da fuoco, benché per queste persone sia più probabile prendersi
una pallottola da un bambino che giochi a casa con la loro pistola che da un
terrorista. A meno che non viviate in Afghanistan o in Nigeria, sarà molto
più facile che veniate uccisi da un automobilista distratto, magari voi stessi.
E non è di cile comprenderne la ragione. Quando dei guidatori
ventunenni usano un cellulare, i loro tempi di reazione diminuiscono no a
coincidere con quelli di un settantenne sprovvisto di cellulare.8 Ciò è noto
come invecchiamento cerebrale istantaneo.
Perché le persone messaggiano mentre guidano? Potrebbero non essere
consapevoli di quanto è pericoloso. Tuttavia, in un sondaggio, ho scoperto
che la maggior parte di esse sa bene che un rischio esiste.9 Non si tratta
quindi di mancanza di consapevolezza, bensì di mancanza di autocontrollo.
“Quando mi arriva un messaggio, devo leggerlo”, spiega uno studente. E
l’autocontrollo è diventato più di cile da quando le piattaforme hanno
introdotto noti che, like e altri trucchetti psicologici per mantenere gli
occhi degli utenti incollati ai loro siti anziché a quel che li circonda.
Comunque, gran parte dei danni potrebbe essere evitata se le persone
riuscissero a resistere all’impulso di controllare il cellulare quando
dovrebbero prestare attenzione alla strada. E non sono solo i giovani a farlo.
“Non mandate messaggi ai vostri cari quando sapete che stanno guidando”,
disse una madre devastata che trovò sua glia gravemente ferita in terapia
intensiva, con il volto sfregiato e un occhio perduto, dopo che le aveva
mandato “uno stupido messaggio”.10 Uno smartphone, ovvero un telefono
“intelligente”, è uno strumento tecnologico straordinario, ma ha bisogno di
essere usato saggiamente da persone intelligenti. La capacità di mantenere
il controllo e di governare la tecnologia protegge la sicurezza personale
vostra e dei vostri cari.
z
La sorveglian a di massa è un problema, non la soluzione
In parte, la ragione per cui abbiamo più paura di un attacco terroristico
che di un automobilista incollato al suo smartphone dipende dal fatto che
l’attenzione dei media è focalizzata più sul terrorismo che sulla guida
distratta, e i politici vi si sono adeguati. Per proteggere i loro cittadini, i
governi di tutto il mondo sperimentano sistemi di sorveglianza basati sul
riconoscimento facciale. Questi sistemi funzionano benissimo nel
riconoscere i volti quando vengono testati in un laboratorio usando foto di
visti o di richieste di lavoro, o anche altre foto ben illuminate in cui le
persone tengono il capo in posizioni simili. Ma quanto possono essere
accurate nel mondo reale? Un test ebbe luogo vicino a casa mia.
La sera del 19 dicembre 2016, un terrorista islamico di 24 anni rubò un
pesante camion e piombò in un mercatino di Natale a Berlino a ollato di
turisti e locali intenti a godersi salsicce e vin brûlé, uccidendo 12 persone e
ferendone 49. L’anno seguente, il ministro dell’Interno tedesco installò
sistemi di riconoscimento facciale alla stazione ferroviaria di Berlino per
veri care con quanta accuratezza riconoscessero i sospetti. Alla ne del test
pilota durato un anno, il ministro riportò con orgoglio in un comunicato
stampa due numeri entusiasmanti: un tasso di successo dell’80 per cento, il
che vuol dire che, per ogni dieci sospetti, i sistemi ne identi cavano
correttamente otto e ne mancavano due; e un tasso di falsi allarmi dello 0,1
per cento, il che vuol dire che solo una ogni mille persone di passaggio
innocenti veniva scambiata per un sospetto. Il ministro ritenne che il
sistema avesse avuto un enorme successo e ne concluse che la sorveglianza
su tutto il territorio nazionale fosse praticabile e auspicabile.
Dopo il comunicato stampa, scoppiò un infuocato dibattito. Da un lato si
riteneva che una maggiore sicurezza giusti casse una maggiore
sorveglianza, dall’altro si temeva che le telecamere alla ne sarebbero
diventate i “teleschermi” di 1984 di George Orwell. Entrambe le fazioni,
comunque, davano per scontata l’accuratezza del sistema.11 Invece di
schierarci da una parte o dall’altra di quell’emotivo dibattito, consideriamo
che cosa accadrebbe realmente se simili sistemi di riconoscimento facciale
fossero implementati su vasta scala. In Germania, ogni giorno passano 12
milioni di persone nelle stazioni ferroviarie. Se si escludono alcune
centinaia di sospetti ricercati, si tratta di persone normali che vanno al
lavoro o a divertirsi. Il tasso che sembrava straordinariamente basso dello
0,1 per cento si traduce in circa 12.000 passeggeri che quotidianamente
verrebbero scambiati a torto per sospetti. Ciascuno dovrebbe essere fermato,
perquisito alla ricerca di armi o droga e trattenuto in custodia nché la sua
identità non venisse confermata.12 Le risorse della polizia, già sotto
pressione, verrebbero usate per esaminare questi cittadini innocenti invece
di prevenire e cacemente il crimine, il che signi ca che un simile sistema
verrebbe posto in essere di fatto a scapito della sicurezza. In ultima analisi,
si nirebbe per avere un sistema di sicurezza che viola la libertà individuale
e disturba la vita sociale ed economica.
Il riconoscimento facciale può rendere un servizio importante, ma per un
compito diverso: l’identi cazione di un individuo anziché uno screening di
massa. Dopo la perpetrazione di un crimine nella metropolitana, o il
passaggio di un’auto a un incrocio con il semaforo rosso, una registrazione
video può aiutare a identi care il colpevole. Ma se lo screening riguarda
tutti quelli che si trovano alla stazione, non sappiamo se gli individui
controllati siano sospetti. La maggior parte di essi non lo è, il che – come
negli screening medici di massa – porta ad avere un gran numero di falsi
allarmi. Il riconoscimento facciale è ancora più pro cuo nello svolgimento
di un altro compito. Quando sbloccate il vostro cellulare guardando lo
schermo, esso esegue un compito detto autenticazione. A di erenza del
colpevole che fugge via nella metropolitana, voi guardate direttamente nella
videocamera e rimanete perfettamente immobili; virtualmente siete sempre
voi che cercate di sbloccare il vostro cellulare. La situazione crea un mondo
abbastanza stabile: voi e il vostro cellulare. È raro che si veri chino errori.
Per discutere i pro e i contro dei sistemi di riconoscimento facciale, è
necessario distinguere fra queste tre situazioni: molti-con-molti, uno-con-
molti, uno-con-uno. Nello screening di massa, molte persone vengono
messe a confronto con molte altre in una banca dati; nell’identi cazione,
una persona viene posta a confronto con molte altre; nell’autenticazione,
una persona viene confrontata con un’altra. Ancora una volta, minore è
l’incertezza, come nell’identi cazione contrapposta allo screening di massa,
migliore è la prestazione del sistema. Pensate all’assalto al Campidoglio nel
gennaio 2021, quando i sistemi di identi cazione facciale individuarono
rapidamente alcuni degli intrusi che erano entrati con la forza nell’edi cio.
Il punto fondamentale è che l’ non è buona né cattiva, ma piuttosto utile
per alcuni compiti e meno utile per altri.
Da ultimo, ma non meno importante, le preoccupazioni riguardo alla
privacy sono pertinenti per questa analisi. Il pubblico in generale è più
preoccupato per la sorveglianza di massa che per l’identi cazione dei
colpevoli e per l’autenticazione. E la sorveglianza di massa è esattamente
quel che i sistemi di riconoscimento facciale possono fare con minore
attendibilità. Comprendere questa di erenza cruciale aiuta a proteggere le
libertà individuali valorizzate nelle democrazie occidentali in
contrapposizione agli interessi di sorveglianza dei loro governi.
Non ho niente da nascondere
Questa frase è diventata popolare nelle discussioni sulle aziende dei
social media che raccolgono tutti i dati personali su cui possono mettere le
mani. Potreste sentirla pronunciare dai clienti che preferiscono pagare con i
dati anziché con il denaro. E questa frase potrebbe valere per tutti quelli
che, tra noi, conducono vite tranquille senza gravi problemi di salute, non si
sono mai fatti potenziali nemici e non alzerebbero la voce per difendere
diritti civili negati da un governo. Tuttavia la questione non riguarda il fatto
di nascondere qualcosa o la libertà di postare gratuitamente degli adorabili
gattini. Alle aziende hi-tech non importa che abbiate o no qualcosa da
nascondere. Piuttosto, poiché non spendete denaro per i loro servizi,
devono impiegare trucchetti psicologici per indurvi a passare quanto più
tempo possibile sulle loro app. Non siete voi i clienti; i clienti sono gli
inserzionisti che pagano le aziende hi-tech per attirare la vostra attenzione.
Molti sono diventati un tutt’uno con il proprio smartphone, dormono poco
a causa del nuovo partner di letto, faticano a trovare il tempo di fare
qualunque altra cosa e aspettano avidamente la prossima scarica di
dopamina derivante da ciascun nuovo like. Jia Tolentino, editorialista del
New Yorker, ha descritto la sua battaglia con il cellulare: “Porto ovunque il
mio cellulare con me come se fosse una bombola d’ossigeno. Lo guardo
mentre faccio colazione e me lo tiro dietro quando porto fuori la
spazzatura, rovinando quel che apprezzo di più del lavorare da casa: il senso
di controllo, la relativa pace”.13 Altri vengono feriti da distruttivi commenti
online postati da estranei riguardo al loro aspetto o al loro spirito. Altri
ancora vengono risucchiati da gruppi estremisti che cadono in balia di fake
news e hate speech.
Il mondo è diviso fra quelli che non si preoccupano molto dell’essere
in uenzati dalla tecnologia digitale e quelli che, come Tolentino, credono
che li renda dipendenti allo stesso modo dei giocatori d’azzardo compulsivi
che non riescono a smettere di pensare al gioco. Tuttavia la tecnologia in
generale, e i social media in particolare, potrebbero tranquillamente esistere
senza essere segnati a dito come ciò che ruba tempo e sonno alle persone.
Non sono i social media di per sé a rendere dipendenti alcuni di noi, è
invece il modello di business basato sugli annunci pubblicitari
personalizzati. Il danno per i suoi fruitori deriva da questo “peccato
originale”.
La caffetteria gratuita
Immaginate una ca etteria che abbia eliminato tutti i concorrenti della
città o rendo ca è gratis, non lasciandovi altra scelta che andare lì per
incontrare i vostri amici. Mentre vi godete le tante ore che vi trascorrete
chiacchierando con gli amici, cimici e telecamere collegate ai tavoli e ai
muri monitorano le vostre conversazioni e prendono nota di chi è seduto
vicino a voi. La sala è anche piena di venditori che pagano i vostri ca è e vi
interrompono continuamente per o rirvi i loro prodotti personalizzati e
servizi da acquistare. I clienti di questa ca etteria in e etti sono i venditori,
non voi e i vostri amici. È così, fondamentalmente, che funzionano
piattaforme come Facebook.14
I social media potrebbero funzionare in un modo più sano se si basassero
su un modello di business di una ca etteria reale o di televisioni, radio o
altri servizi in cui siete voi i clienti che pagano per i prodotti o i servizi che
desiderate. Di fatto, nel 1998, Sergey Brin e Larry Page, i giovani fondatori
di Google, avevano criticato i motori di ricerca basati sulle inserzioni perché
erano intrinsecamente sbilanciati verso le necessità degli inserzionisti, non
dei consumatori.15 Tuttavia, sotto la pressione degli investitori, ben presto
cedettero e costruirono il più fruttuoso modello di pubblicità personalizzata
mai esistito. In questo modello di business, è la vostra attenzione il prodotto
che viene venduto. I clienti reali sono le aziende che pubblicano inserzioni
sui siti. Con quanta maggiore frequenza vedete gli annunci, maggiori sono
le somme pagate dagli inserzionisti, il che induce gli operatori del mercato
dei social media a condurre un esperimento dopo l’altro per massimizzare il
tempo che trascorrete sui loro siti e farvici ritornare il più presto possibile.
L’impulso di prendere il cellulare mentre guidate ne è un esempio calzante.
In sostanza, la quintessenza del modello di business è catturare il tempo e
l’attenzione degli utenti nella massima misura possibile.
Per soddisfare gli inserzionisti, le aziende hi-tech raccolgono dati minuto
per minuto su dove siete, che cosa state facendo e cosa state guardando.
Sulla base delle vostre consuetudini, creano una specie di vostro avatar.
Quando un inserzionista posta un annuncio, per esempio sulle ultime
pistole messe in commercio o su rossetti costosi, l’annuncio viene mostrato a
coloro che con maggiore probabilità vi cliccheranno sopra. Tipicamente, gli
inserzionisti pagano l’azienda hi-tech per ogni volta in cui un fruitore clicca
sull’annuncio o per ogni impressione manifestata. Quindi, per aumentare la
probabilità che clicchiate su un annuncio, verrà fatta qualunque cosa vi
induca a restare sulla pagina il più a lungo possibile. I like, le noti che e
altri stratagemmi psicologici operano congiuntamente per rendervi
dipendenti – notte e giorno. Quindi non sono i vostri dati a essere venduti,
bensì la vostra attenzione, il vostro tempo, il vostro sonno.
Se Google e Facebook avessero un modello di servizio a pagamento,
niente di tutto questo sarebbe necessario. Gli eserciti di ingegneri e psicologi
che e ettuano esperimenti su come farvi restare incollati ai vostri
smartphone potrebbero lavorare a innovazioni tecnologiche più utili. Le
aziende di social media dovrebbero comunque raccogliere dati speci ci per
migliorare l’insieme di indicazioni utili a soddisfare le vostre speci che
necessità, ma non sarebbero più motivate a raccogliere altri dati personali
super ui come quelli che potrebbero segnalare che siete depressi, avete il
cancro o siete incinte. Sparirebbe la principale motivazione a raccogliere
questi dati su di voi. Un buon esempio di azienda che ha già implementato
questo modello di servizio a pagamento è Net ix.16 Dalla prospettiva
dell’utente, il piccolo svantaggio sarebbe quello di dover pagare qualche
euro ogni mese per usare i social media. Per le aziende di social media,
tuttavia, il grande vantaggio del più redditizio piano “paga con i tuoi dati” è
che gli uomini – sì, praticamente sono tutti uomini – che vi occupano le
massime posizioni sono oggi fra i più ricchi e potenti del mondo.
RESTARE AL DI SOPRA DELLA TECNOLOGIA
Questi esempi danno una prima impressione di che cosa signi chi essere
al di sopra della tecnologia. Resistere al richiamo delle sirene di messaggiare
mentre si guida implica la capacità di mantenere il controllo e governare
una tecnologia. Le possibilità e i limiti dei sistemi di riconoscimento facciale
ci mostrano che la tecnologia è eccellente in situazioni su cientemente
stabili come sbloccare il proprio smartphone o per i controlli alla frontiera,
dove la foto del vostro passaporto può essere confrontata con un’altra vostra
foto. Ma quando lo screening avviene nelle condizioni del mondo reale, l’
incespica e crea troppi falsi allarmi che possono ingenerare gravi problemi
quando schiere di innocenti vengono fermati e perquisiti. Insomma, i
problemi causati dai social media – dalla perdita di tempo, di sonno e della
capacità di concentrarsi sino alla dipendenza – non sono colpa dei social
media di per sé, ma delle aziende che adottano il modello di business “paga
con i tuoi dati”. Per sradicare questi gravi problemi, dovremmo andare oltre
le nuove impostazioni di privacy e i regolamenti governativi e focalizzarci
sulla radice del problema, ovvero cambiare il modello di business che ne è
alla base. Sarebbe opportuno che i governi manifestassero più coraggio nel
proteggere i cittadini che rappresentano.
Si potrebbe pensare che aiutare ciascuno a comprendere le potenzialità e i
rischi della tecnologia digitale sia uno dei primi obiettivi di ogni sistema
educativo e dei governi di tutto il mondo, ma non è così. Infatti,
l’argomento non è neppure nominato nei “Temi chiave per la
trasformazione digitale nel 20” dell’ e nel “Libro Bianco
sull’intelligenza arti ciale” della Commissione europea del 2020.17 Questi
programmi si focalizzano su altre questioni importanti, fra cui la creazione
di poli d’innovazione, infrastrutture digitali, una legislazione adeguata e
l’aumento di ducia delle persone nell’ . Di conseguenza, la maggior parte
dei nativi digitali è deplorevolmente impreparata a distinguere i fatti dalle
fake e le notizie dagli annunci pubblicitari nascosti.
Per risolvere questi problemi, comunque, non bastano l’infrastruttura e la
regolamentazione. È necessario prendersi del tempo per e ettuare serie
ricerche. Avete dovuto aspettare a lungo chiamando un servizio di
assistenza telefonica? Può darsi che il vostro indirizzo o un algoritmo
predittivo indicassero che siete un cliente di scarso valore. Avete notato che
il primo risultato di una ricerca su Google non è quello più utile per voi? È
probabile che un inserzionista abbia pagato di più per quel risultato.18
Sapete che la vostra amata smart può registrare le vostre conversazioni
personali nel soggiorno o in camera da letto?19
Se niente di tutto questo costituisce una novità per voi, potreste essere
sorpresi apprendendo che la maggior parte della gente ne è ignara. Sono in
pochi a sapere che gli algoritmi determinano il loro tempo di attesa o ad
analizzare quel che i televisori “intelligenti” registrano a bene cio di parti
terze. Alcuni studi testimoniano che circa il 50 per cento dei fruitori adulti
non comprende che le voci di ricerca che compaiono per prime e recano un
contrassegno sono annunci anziché i risultati più rilevanti o popolari.20
Questi annunci sono infatti contrassegnati ma con il passare degli anni il
loro aspetto è diventato più simile ai risultati di ricerca organici (non
annunci). Nel 2013, gli annunci di Google smisero di essere evidenziati da
un particolare colore di sfondo e venne invece introdotta una piccola icona
gialla con su scritto “Annuncio pubblicitario”; dal 2020, anche il colore
giallo è stato abolito e la dizione “Annuncio pubblicitario”, ora in bianco e
nero, si fonde con i risultati di ricerca organici. Google viene pagata dagli
inserzionisti per ogni clic sui loro annunci e così, se le persone credono a
torto che i primi risultati siano i più rilevanti per loro, ciò giova agli a ari.
Come dicevo, molti dirigenti e politici sono eccessivamente entusiasti dei
big data e della digitalizzazione. Ma entusiasmo non è sinonimo di
comprensione. Sembra che molti zelanti profeti non sappiano di cosa
stanno parlando. Secondo uno studio condotto con oltre 400 dirigenti
operanti in grandi aziende quotate, il 92 per cento di essi non possedeva
un’esperienza nell’ambito della digitalizzazione documentata o
riconoscibile.21 Analogamente, quando Mark Zuckerberg dovette
testimoniare, a proposito dell’ultima controversia sulla privacy, di fronte ai
politici del Senato e della Camera degli Stati Uniti, la rivelazione più
sorprendente non fu quel che egli disse rispondendo alle obiezioni che gli
erano state mosse, ma la scarsità delle conoscenze dei politici riguardo al
mondo opaco in cui operano le aziende di social media.22 Quando prestavo
servizio nel Consiglio consultivo per le questioni relative ai consumatori
presso il ministero tedesco della Giustizia e della Tutela dei consumatori,
esaminammo come gli algoritmi segreti delle aziende che attribuiscono il
punteggio di a dabilità creditizia (credit scoring) fossero supervisionati
dalle autorità di protezione dei dati, che esistono per assicurare che gli
algoritmi siano indicatori attendibili della solvibilità sulla base di genere,
razza o altre caratteristiche individuali. Quando le maggiori aziende di
credit scoring presentarono i loro algoritmi, le autorità ammisero di
mancare della competenza informatica necessaria per valutarli. Alla ne, fu
la stessa azienda a toglierle d’impiccio selezionando gli esperti che redassero
il rapporto e persino pagando i loro onorari.23 Sembra che l’ignoranza sia la
regola anziché l’eccezione in questo mondo “intelligente”. Abbiamo bisogno
di cambiare rapidamente, non nel lontano futuro.
Paternalismo tecnologico
Il paternalismo (dalla parola latina pater, “padre”) è la concezione
secondo cui un certo gruppo ha il diritto di trattare gli altri come bambini
che dovrebbero volontariamente essere deferenti nei confronti dell’autorità
del gruppo. Storicamente la sua giusti cazione è che il gruppo dominante è
stato scelto da Dio, o è parte dell’aristocrazia, o possiede conoscenze segrete
o ancora gode di una favolosa ricchezza. Coloro che si trovano sotto la sua
autorità sono considerati inferiori perché sono donne, persone di colore,
poveri o incolti, fra gli altri. Durante il secolo, il paternalismo ha perso
terreno dopo che la maggior parte delle persone ha nalmente avuto
l’opportunità di imparare a leggere e a scrivere, e dopo che i governi hanno
in ne garantito a uomini e donne la libertà di parola e di movimento,
insieme al diritto di voto. Questa rivoluzione, alcuni convinti sostenitori
della quale sono stati incarcerati o uccisi, ha consentito alle nuove
generazioni, noi compresi, di prendere la situazione in mano. Tuttavia, il
secolo sta assistendo all’ascesa di un nuovo paternalismo da parte di
aziende che usano macchine per predire e manipolare il nostro
comportamento, che ci piaccia o no. I suoi profeti annunciano per no
l’avvento di un nuovo dio, una superintelligenza onnisciente che porta il
nome di (Intelligenza Arti ciale Generale) che si dice sia in grado di
superare gli umani in tutti gli aspetti intellettivi. Fino al suo avvento,
dovremmo inchinarci ai suoi profeti.24
Il soluzionismo tecnologico è la credenza che ogni problema della società
sia un “bug” che ha bisogno di essere “corretto” con un algoritmo. La sua
naturale conseguenza è il paternalismo tecnologico, il governo degli
algoritmi. Non c’è neanche bisogno di spacciarlo per la nzione di una
superintelligenza; si aspetta che accettiamo che le aziende e i governi
registrino dove siamo, che cosa stiamo facendo e con chi, minuto per
minuto, e anche che crediamo che queste registrazioni renderanno il
mondo migliore. Come spiega l’ex amministratore delegato di Google Eric
Schmidt: “L’obiettivo è quello di rendere i fruitori di Google capaci di
formulare domande come ‘Che cosa farò domani?’ e ‘Che lavoro
sceglierò?’”.25 Molti scrittori famosi ci spingono a guardare con rispetto il
paternalismo tecnologico raccontando storie che sono, nel migliore dei casi,
ben lungi dall’essere vere.26 Ciò che sorprende ancora di più è che persino
taluni in uenti ricercatori non vedono limiti a quel che può fare l’ ,
sostenendo che il cervello umano è un computer inferiore e che dovremmo
rimpiazzare gli umani con gli algoritmi ogniqualvolta sia possibile.27 L’ ci
dirà che cosa fare, e noi dovremmo ascoltarla e seguirla. Dobbiamo solo
aspettare un po’, nché l’ diventerà più intelligente. Stranamente, il
messaggio non è mai che anche gli umani hanno bisogno di diventare pi ù
intelligenti .
Ho scritto questo libro per rendere gli esseri umani capaci di acquisire
una comprensione realistica di quel che l’ può fare e di come sia usata per
in uenzarci. Non abbiamo bisogno di più paternalismo; ne abbiamo avuto
anche troppo nei secoli passati. Ma non abbiamo neppure bisogno di un
panico tecnofobico, che viene risvegliato a ogni nuova rivoluzione
tecnologica. Quando furono inventati i treni, alcuni medici ammonivano
che i passeggeri sarebbero morti so ocati.28 Quando divenne largamente
disponibile la radio, la preoccupazione fu che un ascolto eccessivo avrebbe
nociuto ai bambini poiché hanno bisogno di riposo, non di jazz.29 Anziché
di spavento o clamore, il mondo digitale ha bisogno di cittadini critici
meglio informati che vogliono esercitare il controllo sulle loro vite in prima
persona.
Questo libro non è un’introduzione accademica all’ , o ai suoi
sottocampi come l’apprendimento automatico o l’analisi dei big data. È
piuttosto una storia d’amore con l’ : parla di ducia, delusione,
comprensione, dipendenza, trasformazione personale e sociale. È scritto per
un pubblico generale, ha l’intento di essere una guida per navigare tra le
s de di un mondo intelligente e attinge, fra l’altro, alla mia ricerca sul
processo decisionale in condizioni di incertezza condotta al Max Planck
Institute for Human Development, un tema che continua ad a ascinarmi.
Nel corso del libro, non nascondo la mia personale interpretazione di
libertà e dignità, ma faccio del mio meglio per attenermi alle evidenze
a nché i lettori possano farsi una propria idea. Nutro la convinzione
profonda che noi esseri umani non siamo così stupidi e incapaci di
funzionare come viene spesso sostenuto – nché continuiamo a rimanere
attivi e a far uso dei nostri cervelli, che si sono sviluppati nell’intricato corso
dell’evoluzione. Il rischio di accettare la narrazione negativa secondo cui l’
batte gli umani e lasciare che le autorità o le macchine “ottimizzino” le
nostre vite nel modo che preferiscono cresce giorno dopo giorno, e mi ha
particolarmente motivato a scrivere questo libro. Come nei miei libri
precedenti Decisioni intuitive e Imparare a rischiare, questo Perché
l’intelligenza umana batte ancora gli algoritmi è in de nitiva un
appassionato appello a mantenere vive le eredità conquistate con fatica
della libertà personale e della democrazia.
Oggi e nel prossimo futuro ci troveremo di fronte al con itto fra due
sistemi, quello autocratico e quello democratico, non diversamente da
quanto avvenne con la Guerra fredda. Però, a di erenza di quel tempo in
cui la tecnologia nucleare manteneva le due potenze in un di cile
equilibrio, la tecnologia digitale può far pendere la bilancia verso sistemi
autocratici. Lo abbiamo visto succedere durante la pandemia di Covid-19,
quando alcuni paesi autocratici hanno contenuto il virus con successo
grazie all’aiuto di una severa sorveglianza digitale.
Non posso occuparmi di tutti gli aspetti collegati al vasto campo della
digitalizzazione, ma fornirò una selezione di argomenti spiegando i principi
generali che possono essere applicati in modo più esteso, come il principio
del mondo stabile e la fallacia del cecchino discussi nel capitolo 2, e il
principio dell’adattamento all’ e la fallacia del carro armato russo discussi
nel capitolo 4. Come forse avrete notato, ho usato la dizione in senso
ampio, comprendendovi ogni tipo di algoritmo creato allo scopo di fare quel
che fa l’intelligenza umana, ma impiegherò termini di erenti quando sarà
necessario.
In ogni cultura, abbiamo bisogno di parlare del mondo futuro in cui noi e
i nostri gli desideriamo vivere. Non vi sarà mai una sola risposta. C’è però
un messaggio generale che si applica a tutte le prospettive: nonostante o a
causa dell’innovazione tecnologica, abbiamo bisogno di usare più che mai i
nostri cervelli.
Iniziamo con un problema che ci sta a cuore, trovare il vero amore, e con
algoritmi segreti talmente semplici che chiunque può comprenderli.
1. Comunicazione personale.
2. Lee (2018).
3. Per esempio, con la sua analisi fondamentale del capitalismo della sorveglianza, Shoshana Zubo
sembra presupporre che questa capacità sia generalmente e ettiva, come quando parla del fatto che
“monitorano e modellano il comportamento umano con un’accuratezza impareggiabile” (2019a, p.
17) o scrive che “i capitalisti della sorveglianza sanno tutto di noi” (2019b)
4. Breakstone, Smith, Connors et al. (2021). Vedi anche McGrew, Breakstone, Ortega et al. (2018);
Wineburg, McGrew (2019); e cap. 11.
5. Rogers (2012).
6. National Consortium for the Study of Terrorism and Responses to Terrorism (2020)
7. Centers for Disease Control and Prevention (2020).
8. Britt (2015).
9. (2019).
10. https.//www.youtube.com/watch?v=t7911kgJJZc.
11. Per esempio, il capo del sindacato della polizia tedesca scrisse che il tasso di falsi positivi dello
0,1 per cento è così basso da essere “accettabile, a malapena percepibile”. Il comunicato stampa è qui:
https://www.bmi.bund.de/SharedDocs/pressemitteilungen/DE/2018/10/gesichtserkennung-
suedkreuz.htlm.
12. Il dibattito infuocato fu alimentato da una mancanza di alfabetizzazione sul rischio. Per
esempio, un commentatore mise correttamente in luce su Twitter che lo 0,1 per cento del tasso di falsi
allarmi insieme al basso tasso dei sospetti signi ca che la maggioranza degli allarmi è falsa. Per
rendervene conto, ipotizzate 500 sospetti che bazzicano le stazioni dei treni, dei quali il sistema ne
identi ca correttamente 400 (tasso di successo dell’80 per cento). Quindi, ci sono 400 positivi
autentici ogni 12.000 falsi positivi, il che vuol dire che circa il 97 per cento di tutte le classi cazioni
positive è sbagliato. In risposta, un membro del Parlamento europeo difese il sistema e twittò:
“Dovrebbe lavorare sulla sua matematica: uno 0,1 per cento di tasso di errore signi ca il 99,9 per
cento di successi quando viene applicato in modo ottimale. Questo è ottimale”. Pensava a torto che un
tasso di allarme dello 0,1 per cento signi casse che il 99,9 per cento di tutte le classi cazioni fosse
corretto. Quando le venne fatto notare l’errore, insistette che conosceva il calcolo delle probabilità ma
che era irrilevante perché la questione reale in gioco era l’e etto preventivo e educativo dei sistemi di
riconoscimento facciale. I politici hanno bisogno di essere alfabetizzati sul rischio – e anche
dell’umiltà di ammettere i loro errori.
13. Tolentino (2019, p. 71).
14. Come si usa dire: “Se non pagate per un prodotto, il prodotto siete voi”. Più precisamente, il
prodotto sono le predizioni fatte al vostro riguardo. La storia della ca etteria è stata ispirata da un
discorso divertente sulla sorveglianza aziendale. Vedi
https://idlewords.com/talks/internet_a_human_face.htm.
15. Brin, Page (2012). La storia di come i fondatori di Google – aiutati da un brillante matematico
canadese il cui disgusto per la pubblicità era per no superiore a quello di Page – nirono per creare
la più potente piattaforma basata sugli annunci è raccontata da Wu (2016).
16. Varie aziende, fra cui Mozilla e Google Contributor, stanno anche sperimentando
micropagamenti (Melendez, 2019). Anche Net ix è interessata a tenerci concentrati a guardare per
avere alti tassi di abbonamenti, ma non a soddisfare una miriade di inserzionisti. Alcune piattaforme
o rono l’opzione di pagare per non essere bombardati dalla pubblicità, ma sono in pochi a garantire
che non verranno più tracciati. Per esempio, piattaforme di business come LinkedIn e Xing o rono un
abbonamento premium che consente l’accesso ai dati degli altri membri (ovvero di chi ha visitato la
pagina), ma non proteggono i dati personali.
17. La questione dell’aumentare la comprensione da parte degli utenti è stata discussa dal rapporto
della Commissione europea (Lewandowsky et al., 2020). Alcune organizzazioni private come il
Institute hanno a rontato il rischio digitale per i bambini.
18. Più precisamente, gli slot sono messi all’asta e venduti all’acquirente per il quale un algoritmo
ha calcolato il ritorno più alto per l’azienda, che è funzione sia dell’o erta sia del numero atteso di
utenti che vedranno o cliccheranno sull’annuncio. Gli inserzionisti pagano Google per i clic, quindi è
chiaro che Google voglia che clicchiate sugli annunci.
19. https://www.samsung.com/hk_en/info/privacy/smarttv/. Fowler (2019, 18 settembre).
20. https://www.searchenginewatch.com/2016/04/27/do-50-of-adults-really-not-recognise-ads-in-
search-results/.
21. Kawohl, Becker (2017).
22. Economist (2018).
23. Advisory Council for Consumer A airs at the Federal Ministry of Justice and Consumer
Protection (2018). Il fatto che il controllo sui sistemi di valutazione si basi sui rapporti che hanno
commissionato le stesse agenzie di credito è stato rivelato dai reporter dell’emittente bavarese
Bayerischer Rundfunk.
24. http://2045.com/ideology/. Alcuni scrittori vagheggiano di essere autorizzati a caricare i loro
cervelli in questa immensa intelligenza, quando arriverà, rendendosi così immortali.
25. Daniel, Palmer (2007).
26. A ermazioni esagerate sugli algoritmi senza alcuna evidenza che le supporti possono essere
trovate, per esempio, in Harari (2015). Ne fornisco alcuni esempi nel capitolo 11.
27. Vedi il ventaglio di opinioni in Brockman (2019). Inoltre, Kahneman (2019, p. 609) pone la
questione se l’ possa fare con il tempo tutto quello che fanno le persone: “Ci sarà qualcosa che
resterà riservato agli esseri umani? Francamente, non vedo limiti a quel che possa fare l’ ”. E ancora:
“Dovreste rimpiazzare gli umani con degli algoritmi ogni volta che fosse possibile” (ibidem, p. 610).
28. Gigerenzer (2014).
29. Sui cicli della paura, vedi Orben (2020).
PARTE PRIMA
LA STORIA D’AMORE UMANA CON L’INTELLIGENZA
ARTIFICIALE
Il problema non è l’ascesa delle macchine “intelligenti”, ma l’istupidimento dell’umanità.
1
1. Taylor (2018).
2
IN CHE COSA ECCELLE L’INTELLIGENZA ARTIFICIALE
IL PRINCIPIO DEL MONDO STABILE
Se qualcuno riuscisse a inventare una macchina degli scacchi vincente, gli sembrerebbe di aver
penetrato il cuore degli sforzi dell’intelletto umano.
. , . . , . . 1
Immaginate quanto sarebbe più di cile la sica se gli elettroni avessero sentimenti.
. 2
Perché l’intelligenza arti ciale può vincere a scacchi ma non riesce a
trovare il miglior partner? Dopotutto, l’obiettivo parrebbe simile: assegnare
un punteggio a ogni mossa o candidato e poi scegliere il migliore. Gli
algoritmi degli scacchi come Deep Blue assegnano punteggi a miliardi di
possibili posizioni che possono prevedere, allo stesso modo in cui gli
algoritmi dell’amore assegnano punteggi di abbinamento a milioni di
potenziali partner. Funziona a meraviglia per gli scacchi. Perché no per
qualunque altra cosa?
Herbert Simon è stato uno dei fondatori dell’intelligenza arti ciale, e
nora l’unico vincitore sia del premio Nobel per l’Economia sia del premio
Turing, che è stato soprannominato “premio Nobel dell’Informatica”. Simon
era assolutamente convinto che, allorché una macchina fosse riuscita a
battere il miglior giocatore di scacchi, avrebbe raggiunto la quintessenza
dell’intelligenza umana. Nel 1965 predisse che, nell’arco di vent’anni, le
macchine sarebbero state in grado di eseguire qualunque lavoro svolto dagli
umani.3 La credenza che gli scacchi fossero il vertice dell’intelletto umano
era così autoevidente (e lo è ancora per alcuni) da essere condivisa sia dai
primi entusiasti come Simon, sia dai detrattori dell’intelligenza arti ciale.
Per esempio, quando il losofo Hubert Dreyfus redarguì il fervore di Simon
nel suo libro di successo del 1979, Che cosa non possono fare i computer,
indicò comunque gli scacchi come cardine dell’intelligenza generale solo per
sottolineare che i computer non erano stati in grado di vincere contro gli
umani.4
Quando, alla ne, Deep Blue scon sse il campione del mondo Garry
Kasparov nel 1997, l’ sembrò aver fatto passi decisivi nella conquista di
un’intelligenza paragonabile a quella umana. Quel che sembrava mancare
ancora per scon ggerci da tutti i punti di vista era un’ulteriore potenza di
calcolo e un numero maggiore di dati. E la capacità di calcolo ormai non è
più una risorsa scarsa. Secondo la legge di Moore, la potenza di
elaborazione – il numero di transistor nei circuiti integrati – raddoppia più
o meno ogni due anni. Questa crescita esponenziale fu e ettivamente
essenziale per le vittorie dell’ negli scacchi e nel Go. Alla base
dell’argomentazione l’ batte gli umani, di cui parliamo nell’introduzione,
c’è l’equazione di Simon di questo successo nel raggiungere l’intelligenza
umana. Sulla scia di Simon, alcuni scrittori popolari sostengono che non ci
vorrà molto prima che si riesca a costruire una spettacolare
superintelligenza che ci supererà in tutto ciò che sappiamo e facciamo.
Io sono un grande ammiratore dell’opera di Simon, ma in questo caso egli
ha trascurato una questione fondamentale che anche altri hanno ignorato.
IL PRINCIPIO DEL MONDO STABILE
C’è una di erenza cruciale tra il gioco degli scacchi e problemi come
trovare il partner della vita. Negli scacchi, ogni posizione può essere
rappresentata da un pro lo che speci ca la collocazione di ciascun pezzo,
dal pedone al re. Un computer che giochi a scacchi non ha bisogno di fare
un’inferenza riguardo alla vera posizione poiché il pro lo è la posizione.
Non c’è incertezza. Ma in molte altre situazioni, come negli incontri online,
di incertezza ce n’è molta. Benché ogni persona abbia un pro lo, come
abbiamo visto, il pro lo non è la persona. Le persone tendono a modi care
i propri pro li e, anche quando lo delineano scrupolosamente, un pro lo
non coglie le ricche dimensioni di un essere umano.
Questa intuizione è espressa in modo più generale dal principio del
mondo stabile :
5
z z
Gli algoritmi complessi fun ionano al meglio in situa ioni ben de nite, ,
stabili in cui sono
disponibili grandi quantit à di dati. L’intelligenza umana , invece, si è evoluta in modo da gestire
l’incertezza a prescindere dalla quantit à di dati disponibili.
Le regole degli scacchi e del Go sono ben de nite e sono stabili nel senso
che rimangono sse sia oggi sia domani. Non c’è incertezza sulla loro natura
e sul fatto che possano inaspettatamente cambiare in futuro. Fra le persone
legate da una relazione romantica, invece, le regole di condotta devono
essere negoziate e possono essere violate.
Il principio del mondo stabile trova applicazione anche nella previsione
del futuro. Per predire accuratamente il futuro, è necessario disporre di una
buona teoria, dati a dabili e un mondo stabile. Nell’agosto 2004, la
lanciò la sonda Messenger che entrò nell’orbita del pianeta Mercurio nel
marzo 2011, nel punto esatto che la aveva previsto più di sei anni
prima. Questa impresa incredibile è stata possibile perché esiste una buona
teoria del movimento dei pianeti, sono disponibili dati astronomici
particolarmente a dabili e il movimento di Mercurio rimane stabile nel
tempo, senza essere in uenzato signi cativamente dal comportamento
umano. Di conseguenza l’ è magni ca nel gestire simili situazioni stabili,
dal riconoscimento facciale per sbloccare il proprio smartphone al cercare la
strada più veloce per raggiungere la propria destinazione, all’analisi di
grandi quantitativi di dati nell’amministrazione.
Ma le aziende hi-tech spesso predicono il comportamento umano senza
una buona teoria, dati attendibili o un mondo stabile. Se fate domanda per
un lavoro, un algoritmo può analizzare la vostra richiesta e stabilire se
dovreste essere invitati a un colloquio. Se venite tratti in arresto, il giudice
potrebbe consultare uno strumento di valutazione del rischio per calcolare
la probabilità che torniate a delinquere prima della celebrazione del
processo e decidere di conseguenza se dovrebbe esservi concessa la libertà
vigilata o se sarebbe più saggio lasciarvi in prigione. Se vi viene il cancro,
l’ospedale potrebbe basarsi su un algoritmo di big data per elaborare un
trattamento personalizzato per voi. Se siete un assistente sociale, potreste
essere assegnato a famiglie della vostra comunità che un algoritmo ritiene
siano ad alto rischio. In tutte queste situazioni mancano una buona teoria,
dati attendibili o un mondo stabile. Il potere miracoloso dell’ è dunque
un miraggio.
La distinzione che faccio corrisponde a quella che esiste fra rischio e
incerte zza formulata originariamente dall’e conomista Frank Knight. Nelle
situazioni di rischio, come la roulette, conosciamo in anticipo tutti i possibili
risultati (i numeri da 0 a 36), insieme alle conseguenze e alle probabilità.
Nelle situazioni di incertezza, invece, non conosciamo in anticipo tutti i
possibili risultati o le loro conseguenze. È quel che succede quando si
assume un dipendente, si prevedono i risultati elettorali o si predicono i
tassi di contagio del Covid-19. Gli esperti di nanza usano i termini
incerte zza radicale e cigni neri per caratterizzare un mondo in cui il futuro
è inconoscibile e si veri cano delle sorprese.6 In queste situazioni,
concludeva Knight, il calcolo non è su ciente; abbiamo invece bisogno di
discernimento, intelligenza, intuizione e coraggio per prendere delle
decisioni. Molte situazioni si con gurano come una mescolanza di rischio e
incertezza, il che signi ca che hanno un ruolo da rivestire sia le macchine
per il calcolo sia l’intelligenza umana.
Il principio del mondo stabile chiarisce che, con l’aumento della potenza
di calcolo, le macchine ben presto risolveranno tutti i problemi emersi in
situazioni stabili meglio degli umani. Per esempio, potrà esistere un
programma che surclassa gli umani in tutti i giochi con regole de nite.
Tuttavia ciò non è possibile nelle situazioni instabili. Se il futuro è diverso
dal passato, raccogliere e analizzare dati di grandi dimensioni – che
vengono attinti sempre dal passato – può portare a false conclusioni. Grazie
a questa intuizione, possiamo comprendere meglio quando algoritmi
complessi alimentati da big data hanno probabilità di avere successo e
quando invece gli umani sono indispensabili.
I SUCCESSI DELL’INTELLIGENZA ARTIFICIALE
“Io, per esempio, do il benvenuto ai nostri nuovi padroni computer”, disse
Ken Jennings ammettendo la sua scon tta da parte del supercomputer
Watson dell’ nel telequiz Jeopardy! nel 2011.7 Il nuovo padrone aveva le
dimensioni di una stanza e venti tonnellate di apparecchiature di
condizionamento. Watson prende il nome da quello del fondatore dell’
omas J. Watson. Ha un algoritmo dotato di un’enorme capacità di dare
risposte alle domande, un “Deep (question-answering)”, che era stato
elaborato sulla base di migliaia di coppie “domanda e risposta” del telequiz
per imparare quale risposta fosse appropriata per ciascuna domanda. Non
c’è dubbio che la performance di Watson nel telequiz fu straordinaria.
Le spettacolari vittorie dell’ sugli esperti umani si sono veri cate tutte,
no a oggi, in giochi ben de niti, dalla dama al backgammon allo Scarabeo.
Jeopardy! aveva già regole rigide ma, a nché Watson potesse vincere,
anche queste dovettero essere adattate escludendo alcuni tipi di domande.8
Nel maggio 2017, il programma informatico AlphaGo vinse contro il
campione del mondo di Go del tempo, Ke Jie. L’incontro ebbe 280 milioni
di spettatori in Cina, dove i campioni di Go sono eroi nazionali con lo status
di rockstar.9 Come quello degli scacchi, il gioco del Go è ben de nito, con
regole sse che non possono essere negoziate dai contendenti. Nel
dicembre 2017, fece la propria comparsa il suo discendente, AlphaZero, che
prevalse su AlphaGo. Entrambi usano reti neurali profonde, i cui algoritmi
non sono creati da umani ma appresi da macchine. AlphaGo impara da
giochi giocati da esperti umani, mentre tutto ciò che ha bisogno di sapere
AlphaZero sono le regole del gioco, senza alcun ulteriore input umano. Usa
semplicemente la potenza di calcolo per giocare milioni di partite contro se
stesso e imparare come vincere per prova ed errore.
AlphaZero batte anche i migliori giocatori umani a scacchi e a Shogi (gli
scacchi giapponesi). Ciò nondimeno sarebbe un errore credere che
AlphaZero sia capace di fare qualunque cosa. È specializzato in giochi per
due giocatori, caratterizzati da regole note e immutabili. Non funziona per
guidare un’automobile, insegnare ai bambini, trovare il vero amore,
conquistare il mondo o altre questioni pratiche piene di incertezza.10
Analogamente, il sistema di raccomandazione del motore di ricerca di
Google è altamente specializzato e non è capace di giocare a Go. Anzi,
AlphaGo e il motore di ricerca di Google hanno ben poco in comune.
Un altro esempio dell’e cacia dell’ è quello dei sistemi di
riconoscimento facciale usati non solo per controlli doganali e per sbloccare
gli smartphone, ma anche per identi care gli amici nelle foto postate sui
social network online, veri care le identità al bancomat ed e ettuare check-
in negli alberghi. In un esperimento il sistema di riconoscimento facciale di
Google fu alimentato con un enorme numero di immagini, impiegando più
di mille ore in una rete di potenti computer. Quando gli fu dato il compito
di determinare se due fotogra e mostrassero la stessa persona, risultò
accurato nel 99,6 per cento dei casi, ovvero il livello in cui gli umani
eseguono lo stesso compito.11 Questi sistemi funzionano in modo ottimale
se tenete la faccia immobile di fronte alla telecamera del controllo doganale
o al vostro cellulare, vale a dire nei compiti di autenticazione, in cui un
volto viene messo a confronto con una foto. Come notavamo
nell’introduzione, i sistemi di riconoscimento facciale hanno un successo
notevolmente minore nello screening di massa, vale a dire in situazioni
meno controllate in cui molti individui vengono posti a confronto con molti
altri. Per esempio, quando la polizia di Cardi esaminò i volti di 170.000
tifosi di calcio nella nale della Champions League del 2017 fra il
Real Madrid e la Juventus, il sistema registrò 2470 corrispondenze con un
database criminale di mezzo milione di immagini, 2297 delle quali (il 93
per cento) erano falsi allarmi.12 Analogamente, quando il sistema di
riconoscimento facciale di Amazon confrontò le foto di 535 membri del
Congresso degli Stati Uniti con un database criminale, rilevò le
corrispondenze di 28 membri, tutte false.
Come ultimo esempio, considerate i controlli antifrode. Una delle ragioni
per cui potreste pagare in eccesso l’assicurazione sanitaria è una forma di
frode praticata da medici e farmacie corrotti. Ecco come funziona. Se un
farmaco costa 100 euro e il tasso di rimborso è del 90 per cento, la farmacia
riceve indietro 90 euro dall’assicuratore. Se la farmacia presenta ricette
scritte da un medico senza avere realmente venduto il farmaco, può trarne
un pro tto illecito. In Portogallo, per esempio, un medico scrisse 32.000
ricette per farmaci costosi in un anno – che corrisponde a una ricetta falsa
ogni tre minuti.13 Le ricette recavano il nome di pazienti morti o le rme
false di medici deceduti. Questi medici e queste farmacie causarono
qualcosa come il 40 per cento di tutte le tru e alla spesa pubblica nel paese.
Per porre un argine alla faccenda, il Servizio sanitario nazionale portoghese
introdusse un programma di prescrizioni elettroniche richiedendo ai medici
di compilare la ricetta e mandarla ai loro pazienti via messaggio di testo o
email, e riferì che il sistema poteva ridurre le frodi dell’80 per cento. In
questo caso, il potenziale di sorveglianza del so ware fu chiaramente usato
a bene cio del sistema sanitario.
Vi sono innumerevoli esempi di che ha sorpassato le capacità umane,
dai robot industriali che infaticabilmente e precisamente ripetono gli stessi
movimenti ai motori di ricerca che riescono a trovare parole e frasi in testi
cospicui. In generale, la mia tesi è che più una situazione è de nita e
stabile, maggiore sarà la probabilità che l’apprendimento automatico superi
quello degli umani.
Nel momento in cui entra in gioco il comportamento umano, appare
l’incertezza e le predizioni diventano di cili. L’ può mettersi nei guai se i
problemi non sono ben de niti o le situazioni sono instabili o se si
veri cano entrambe le cose. Ciò non vale solo per il successo nelle relazioni
romantiche, ma anche per la previsione della prossima grande crisi
nanziaria, che è molto probabile ci colga di sorpresa come era avvenuto
per quella del 2008.
La distinzione fra problemi stabili, ben de niti, e problemi instabili, mal
de niti, richiama alla mente quella fra “incognite note” e “incognite
sconosciute” della terminologia della , rese popolari dall’ex segretario
della Difesa degli Stati Uniti Donald Rumsfeld. Tuttavia la distinzione non
è scolpita nella pietra: la maggior parte delle situazioni è una combinazione
delle due. Per esempio, tradurre da una lingua in un’altra è un’attività
regolata da una serie stabile di regole grammaticali, ma implica anche la
capacità di padroneggiare termini ambigui, frasi dai signi cati molteplici,
l’ironia e altre fonti di incertezza.
L’INTELLIGENZA ARTIFICIALE PSICOLOGICA
Nel 1957, Simon predisse che, nel giro di dieci anni, un computer
avrebbe battuto il campione del mondo di scacchi.14 E aveva ragione,
tempistica a parte. Ma quella vittoria non si veri cò nel modo che Simon
aveva immaginato.
Per Simon, signi cava insegnare ai computer come gli esperti umani
risolvono un problema. Il computer è l’allievo, l’umano l’insegnante. I
ricercatori ricavano le euristiche (le regole pratiche) del pensiero strategico
usato dagli esperti e le programmano in un computer, che a quel punto può
elaborare le regole più velocemente e senza errori. Chiamiamo questa
prospettiva insegnante-allievo psicologica. Si tratta del signi cato
originario di , in cui “ ” si riferisce all’intelligenza degli umani imitata da
una macchina. Simon e i suoi studenti impiegarono parecchio tempo per
ricavare le regole osservando maestri di scacchi e chiedendo loro di pensare
ad alta voce mentre giocavano. Funzionò per alcuni problemi, ma non ebbe
mai successo nel battere un campione mondiale di scacchi.
Il programma che scon sse Kasparov nel 1997, Deep Blue dell’ , non
si basava sull’idea che l’intelligenza umana e quella della macchina fossero
le due facce della stessa medaglia. Fece a damento invece su un’enorme
potenza di calcolo in grado di esaminare 200 milioni di posizioni al
secondo. La macchina calcola: se faccio A, e lui fa B, allora io faccio C, e lui
fa D e così via, come andrà a nire? Kasparov, dal canto suo, poteva
valutare forse tre posizioni al secondo. Quando chiesero a Joe Hoane, uno
dei programmatori di Deep Blue, quanta parte del suo lavoro fosse dedicata
speci camente all’intelligenza arti ciale nell’emulare il pensiero umano,
rispose sprezzantemente: “Non è a atto un progetto di intelligenza
arti ciale. È un progetto in cui giochiamo a scacchi con un’enorme velocità
di calcolo, ci muoviamo attraverso le diverse possibilità e semplicemente ne
scegliamo una”.15
Simon cercò di costruire una macchina a immagine dell’essere umano, la
no. Né lo fece Google quando costruì AlphaZero. I loro ingegneri si
basarono sull’apprendimento automatico, il machine learning, un’altra
branca dell’ che include reti neurali profonde e altri algoritmi senza
cercare di imitare l’intelligenza umana. La “ ” nell’ dell’apprendimento
automatico non ha relazioni con l’intelligenza per come la conosciamo, ed è
per questo che al suo posto viene spesso usata la dizione “processo
decisionale automatizzato” (automated decision making, ). L’
psicologica si era rivelata un fallimento per gli scacchi, mentre
l’apprendimento automatico che usava la forza bruta del calcolo ebbe la
meglio. Quel successo fu percepito come la rinuncia al sogno di costruire
un’intelligenza arti ciale che somigliasse all’intelligenza umana. E c’è una
di erenza fondamentale fra l’intelligenza umana e l’apprendimento
automatico. Il programma di scacchi che usa la forza bruta non sa che sta
scon ggendo un altro giocatore. In realtà, non sa neppure che sta giocando
a qualcosa che si chiama scacchi; semplicemente è capace di farlo. La bruta
potenza di calcolo è calcolo ad alta velocità, non intelligenza.
L’ psicologica è una cattiva idea? Niente a atto. Ha un suo ruolo,
benché non, come credeva Simon, in giochi come gli scacchi e in altre
situazioni ben de nite. Il principio del mondo stabile o re una prospettiva
di erente: è facile che l’ psicologica abbia invece successo in situazioni di
incertezza, come prevedere il futuro. Dopotutto, gli umani hanno
sviluppato euristiche per gestire l’incertezza, e l’ psicologica cerca di
programmare queste euristiche in un computer.
È interessante che Simon sia stato anche uno dei padri della ricerca sulle
euristiche, ed è noto che, nell’incertezza, non ha senso cercare la soluzione
ottimale; è invece più e cace cercarne una soddisfacente. Nella mia ricerca
ho esteso il suo lavoro sull’ psicologica a una vasta serie di situazioni di
incertezza.
Alberi veloci e frugali
Quando prendono delle decisioni, gli esperti tendono a usare meno
informazioni dei neo ti; sanno quel che è rilevante e ignorano il resto. E, se
alcuni segnali (caratteristiche) sono più importanti di altri, gli esperti
considerano questi spunti per primi e possono basare la loro decisione
esclusivamente sull’indizio più importante. Il mio gruppo di ricerca e io
abbiamo tradotto queste intuizioni in semplici algoritmi detti alberi veloci e
frugali , chiamati così per la loro velocità e l’uso frugale delle informazioni.
Nei paesi teatro di con itti in tutto il mondo, spesso dei civili innocenti
vengono feriti o uccisi dopo essere stati scambiati per terroristi ai posti di
blocco militari. Il problema principale è che il personale del checkpoint, che
deve dedurre se un veicolo che si avvicina abbia a bordo civili o attentatori
suicidi, di norma non riceve un addestramento sistematico su come
prendere queste decisioni di vita o di morte. Insieme ad alcuni istruttori
delle forze armate, alcuni dei miei colleghi ricercatori hanno messo a punto
un albero veloce e frugale che aiuta a prendere decisioni più a dabili.16 La
prima domanda dell’albero è se un veicolo in avvicinamento abbia a bordo
più di una persona (Figura 2.1, a sinistra). In caso a ermativo, se ne può
inferire che i passeggeri siano civili non ostili (perché assegnare più
attentatori suicidi a una sola automobile sarebbe uno spreco di risorse
scarse). Se non è così, la domanda successiva da porsi è se il veicolo rallenti
o si fermi al posto di blocco. Se non lo fa, se ne deduce che il passeggero è
ostile. In tal caso la terza e ultima domanda è se esistano ulteriori indizi di
minaccia (come un rapporto dell’intelligence che segnali una Honda Civic
verde nella zona). L’albero è facile da memorizzare e mettere in pratica e
può ridurre il tasso di vittime civili di oltre il 60 per cento.
Un’altra impresa rischiosa è quella di identi care le banche in so erenza.
La nanza tradizionale scommette su modelli molto complessi di “valore a
rischio” che ambirebbero a stimare in modo sicuro il capitale di cui una
banca ha bisogno per evitare la bancarotta con un’alta probabilità, poniamo
del 99,9 per cento. Tuttavia questi modelli non hanno impedito a 42 delle
116 grandi banche globali (con più di 100 miliardi di asset alla ne del
2006) di fallire durante la crisi nanziaria del 2008. Parte del problema
risiede nel fatto che questi modelli sono troppo complessi e fragili per il
mondo incerto dell’attività bancaria – hanno bisogno di stimare milioni di
fattori di rischio, e le loro correlazioni, sulla base di dati spesso inattendibili.
Insieme agli esperti della Bank of England, i miei colleghi e io abbiamo
sviluppato un albero veloce e frugale che è comparabile o supera i metodi
complessi nel predire i fallimenti bancari (Figura 2.1, a destra).17 Il primo
ramo dell’albero si informa sul coe ciente di leva nanziaria (all’incirca, il
rapporto del capitale di una banca con i suoi asset complessivi) di ciascuna
banca e viene trattato per primo perché tale coe ciente è stato quel che ha
distinto meglio le banche che erano fallite da quelle che erano
sopravvissute. Per esempio, la banca svizzera , che ha dovuto essere
salvata dalle autorità svizzere durante la crisi, aveva un coe ciente di leva
nanziaria dell’1,7 per cento soltanto, e usando questo semplice algoritmo
avrebbe ricevuto subito la bandiera rossa. La avrebbe soddisfatto le
altre due caratteristiche dell’albero, ma la logica degli alberi veloci e frugali
è che ciascuna domanda funziona autonomamente nell’ordine della sua
importanza e che una valutazione negativa in un indizio non può essere
compensata da valutazioni positive negli altri. Questa logica è paragonabile
al funzionamento del corpo umano e di altri sistemi complessi: reni perfetti
non possono compensare un cuore in a anno.
L’ psicologica, come quella degli alberi veloci e frugali, può arricchire e
migliorare le decisioni umane. In ciascuno degli esempi, la conoscenza
esperta viene trasformata in un algoritmo. A di erenza di molti algoritmi
complessi, l’ psicologica è trasparente, il che consente ai suoi utilizzatori di
comprendere e adattare un algoritmo quando le situazioni mutano. Nelle
situazioni di incertezza, sono indispensabili sia il giudizio umano sia la
trasparenza.18 Nel caso delle banche, gli algoritmi trasparenti, che non
danno spazio alla stima di milioni di fattori di rischio, possono aiutare le
autorità a scoprire più rapidamente quando le banche cercano di aggirare le
regole.
MANIPOLARE L’IA
Il principio del mondo stabile ci aiuta a comprendere quali problemi
un’applicazione dell’ abbia maggiori probabilità di risolvere con successo.
Tuttavia, per valutare se sia e cace nel mondo reale, abbiamo bisogno di
sapere più di così. Gran parte dell’ è commerciale o militare, non
scienti ca. Le organizzazioni commerciali possono avere obiettivi in
contrasto con quel che i loro prodotti u cialmente dovrebbero fare. Per no
in un mondo stabile, dove un prodotto dell’ dovrebbe essere messo a
disposizione a bene cio della società, l’ può essere manipolata per servire
un interesse occulto. Il problema non è la tecnologia, ma chi si nasconde
dietro di essa. Illustrerò tre modi in cui i clienti vengono coinvolti, sia nelle
situazioni in cui l’ funziona sia in quelle in cui non funziona: come
un’applicazione potenzialmente utile dell’ venga sfruttata per trarne
pro tto, come si possa far sembrare straordinario un algoritmo mediocre e
come vengano commercializzate soluzioni tecnologiche ine caci anche
quando sarebbe più utile investire sulle persone.
Come sono state manipolate le cartelle cliniche elettroniche
Una cartella clinica contiene tutte le informazioni rilevanti sulla storia
medica di un paziente, come i referti degli esami, le diagnosi e i risultati dei
trattamenti. Questi documenti riservati venivano custoditi su carta. Un
problema con i documenti cartacei è che, quando i pazienti vanno a farsi
visitare da nuovi medici, risulta di cile accedere alla storia medica del
paziente nel tempo a disposizione, e di conseguenza molti esami vengono
ripetuti senza che sia necessario. Ciò fa lievitare i costi e sottrae al medico
tempo prezioso che potrebbe usare per ascoltare il paziente e parlargli.
Inoltre, se un nuovo medico non è a conoscenza di aspetti rilevanti della
storia medica del paziente, può accadere che a quest’ultimo venga prescritta
una cura sbagliata. Per evitare tutto questo, le cartelle cliniche elettroniche
promettono di essere strumenti utili per un rapido accesso alle informazioni
di cui i medici hanno bisogno. Queste cartelle hanno algoritmi per
registrare e immagazzinare le informazioni, comprese le immagini, che il
medico può consultare velocemente, a meno che non siano lunghe
centinaia di pagine. Conservare le cartelle e renderle agevolmente
accessibili è un compito ideale per i programmi basilari di che implicano
il mettere in ordine i dati del passato in un modo (si spera) a dabile.
A un incontro al vertice, nel 2003, il primo ministro britannico Tony Blair
si vantò con il presidente degli Stati Uniti George W. Bush del suo nuovo
investimento multimiliardario “Connecting for Health” (Connettersi per la
salute) che avrebbe messo in collegamento l’intero sistema sanitario.
Tornato a Washington, Bush fece pressione a nché venisse realizzato un
programma simile di informatizzazione delle cartelle cliniche.19Alcuni
ricercatori della Corporation stimarono che il sistema sanitario
statunitense avrebbe risparmiato 81 miliardi di dollari l’anno se lo avesse
adottato rapidamente.20 Questa stima indusse gli Stati Uniti a superare
l’investimento e ettuato dal Regno Unito, con un programma di incentivi
federali di 30 miliardi di dollari e una crescita esplosiva del settore.
Finalmente un caso in cui l’investimento in un database è stato utile ai
pazienti, si potrebbe pensare. Tuttavia, quando la Corporation
riesaminò la situazione nel 2013, il suo ottimismo svanì. Gli ospedali dotati
di un sistema di cartelle elettroniche avevano aumentato le loro
fatturazioni. I costi erano saliti, anziché scendere, dai 2000 miliardi di
dollari di spesa aggregata del 2005 ai 2800 miliardi del 2013.21 Inoltre, la
riferì che la qualità e l’e cienza del sistema sanitario erano
aumentate solo in parte, sempreché fossero aumentate sul serio.
Perché un’idea tanto buona non ha portato a niente? La risposta è che il
sistema era viziato.
Considerate la speranza di risparmio sui costi. Il piano prevedeva che un
facile accesso agli esami del passato avrebbe ridotto la ripetizione non
necessaria di alcuni esami. In realtà, quando un medico immetteva i dati
nella cartella, il so ware raccomandava automaticamente nuove procedure
da prendere in considerazione. Dopo essere stati sollecitati a farlo, i medici
che usavano le cartelle elettroniche, in genere, se non altro per non
sbagliare, nivano per prescrivere più esami, non meno.22 Quasi tutte
queste sollecitazioni si sono rivelate falsi allarmi.23 Le aziende stavano
usando il so ware come strumento di vendita per aumentare i pro tti e
gon are le fatture sanitarie.
Considerate la speranza di un miglior accesso. Il piano era che le cartelle
elettroniche avrebbero consentito a medici e pazienti di accedere a tutte le
informazioni sanitarie velocemente e in qualunque momento. I generosi
nanziamenti, però, portarono a una competizione fra le aziende, e i sistemi
installati da ospedali e medici erano brevettati e impiegavano formati
incompatibili e algoritmi segreti che non permettevano la comunicazione
reciproca.24 Così, l’accesso era in realtà limitato, non universale, proprio
come non si può usare il cavo di ricarica di un Mac per un o per no per
il Mac di una generazione precedente. Le aziende di so ware concorrenti
avevano usato i sussidi governativi per aumentare i propri guadagni. Il loro
obiettivo principale era la lealtà al marchio, non la sicurezza dei pazienti.
Considerate la speranza di migliorare la salute dei pazienti. Come
dicevamo, mancano le prove che i pazienti traggano bene cio dalle loro
cartelle cliniche elettroniche.25 Alcuni sistemi di so ware addirittura
suggeriscono ai medici di cambiare la diagnosi di un paziente facendola
diventare più grave, il che aumenta l’importo delle fatture e dà origine a
ulteriori esami e trattamenti. Tutto ciò avviene a spese dei pazienti che
sviluppano una maggiore ansia, ignari che la loro diagnosi grave possa
essere stata formulata nell’interesse del sistema di fatturazione. Non tutti i
medici sono a conoscenza di queste manipolazioni. Una delle ragioni è che i
fornitori di cartelle cliniche possono proteggersi dalle responsabilità con
accordi di riservatezza nei loro contratti, il che signi ca che i medici e le
cliniche che scoprono difetti nel so ware hanno il divieto di parlarne
apertamente.26 I medici che avevano fatto sentire la propria voce su
questioni di sicurezza, lesioni gravi e morti legate a problemi del so ware
chiesero in seguito che i loro nomi non venissero rivelati per paura di essere
citati in giudizio.27
La cosa triste è che le cartelle cliniche elettroniche sono state sviluppate
dalle aziende di so ware per massimizzare i guadagni, non per prendersi
cura dei pazienti. Gli ospedali e i medici hanno usato i sussidi del governo
forniti da Medicare per comprare sistemi elettronici che consentono
di far pagare a Medicare ancora di più per i loro servizi. I dibattiti sulle
cartelle cliniche elettroniche, tuttavia, raramente riconoscono questo
problema e ruotano invece il più delle volte su questioni di privacy e di
tempo dei medici. La privacy è davvero una preoccupazione legittima se si
pensa che centinaia di migliaia di medici, amministratori sanitari e
personale delle assicurazioni hanno accesso alle cartelle personali dei
pazienti. Sono state hackerate alcune cliniche, sono state rubate delle
cartelle, si sono dovuti cancellare interventi chirurgici e certe cliniche sono
state ricattate con la richiesta di denaro per la restituzione delle cartelle. Di
recente per no alcuni pazienti sono stati bersaglio di hacker: decine di
migliaia di pazienti di centri di psicoterapia in Finlandia sono stati ricattati
con la minaccia di pubblicare in rete le loro conversazioni intime con i
terapeuti.28
Tutto ciò e il fatto che la gestione delle cartelle cliniche elettroniche
assottiglia il tempo che i medici possono dedicare ai pazienti sono problemi
seri.29 In ogni modo per risolverli è necessario anzitutto a rontare il
problema fondamentale: i potenziali bene ci delle cartelle cliniche
elettroniche per il paziente sono divorati da un sistema orientato
principalmente al pro tto. Vi sono troppi attori – cliniche, amministratori,
lobbisti, big pharma, assicuratori – che perseguono interessi in con itto con
quelli dei pazienti e della loro salute. Tali interessi non forniscono un
terreno fertile per l’uso dell’ al servizio dei pazienti. Per cogliere i frutti
della salute digitale occorrono sistemi sanitari che prima di tutto e
soprattutto siano al servizio dei pazienti.30 Altrimenti la salute digitale
diverrà un palliativo o addirittura ampli cherà i problemi.
LA FALLACIA DEL CECCHINO TEXANO
Le cartelle cliniche elettroniche potrebbero essere utili per i pazienti; i
dati sono noti e hanno soltanto bisogno di essere resi accessibili.
Consideriamo adesso una situazione di incertezza anziché di relativa
stabilità: predire il divorzio. Il principio del mondo stabile indica che in
questo caso gli algoritmi hanno scarse probabilità di funzionare bene.
Tuttavia c’è un modo astuto per far apparire queste predizioni molto
migliori di quanto siano in realtà. Talvolta questa procedura è una fallacia,
vale a dire un risultato non intenzionale frutto di ignoranza, ma può anche
essere un inganno deliberato per persuadere la gente.
z
Predire il divor io
Immaginate di esservi appena sposati. Vi piacerebbe sapere se il vostro
matrimonio nirà in un divorzio? Si potrebbe obiettare che si tratta di una
domanda teorica perché è di cile sapere in anticipo se una coppia si
separerà. Tuttavia, in una serie di studi, alcuni ricercatori clinici hanno
riferito di aver trovato un algoritmo capace di predire con circa il 90 per
cento di accuratezza se una coppia divorzierà nei tre anni seguenti.31 Uno
studio dopo l’altro suggeriva che l’algoritmo aveva alti livelli di accuratezza,
che variava fra il 67 e il 95 per cento.32 Queste scoperte strabilianti
attirarono grande attenzione da parte dei media, e alcuni laboratori
dell’amore e istituti per il matrimonio di tutto il mondo pubblicizzarono le
“predizioni su base scienti ca” della stabilità e della terapia matrimoniali.33A
di erenza di quello delle agenzie di incontri online, l’algoritmo di questi
studi clinici è trasparente. Usa voci come il livello di istruzione, il numero di
gli piccoli, la violenza, l’alcolismo e l’abuso di droghe.
Chi mai avrebbe pensato che un algoritmo potesse dire se una giovane
coppia avrebbe divorziato? In futuro, potrete guidare no al laboratorio
dell’amore con il vostro partner, fare un colloquio e sentirvi dire se voi due
probabilmente divorzierete o no. Se la risposta è sì, potreste anche
contattare un avvocato prima di perdere altro tempo. O, meglio ancora,
consultare il laboratorio dell’amore prima ancora di unirvi in matrimonio.
Ma pensateci un attimo. Quando si va a sposarsi, non si ha a che fare con
un mondo stabile. Il fatto che una coppia rimanga insieme dipende da così
tanti fattori, oltretutto gravati da parecchia incertezza. Basta questo per
essere scettici riguardo al livello di accuratezza dell’algoritmo. In verità c’è
un’illusione dietro questi numeri. E la si può incontrare in molti studi di
scienze sociali, non solo nel predire il divorzio. Lasciate che vi spieghi.
Il cecchino
Un cecchino texano spara alla parete di un enile con un revolver da una
distanza considerevole. Poi esibisce la sua spettacolare prodezza: i fori dei
proiettili sono raggruppati attorno al centro del bersaglio. Come ha fatto?
Anni di accanito addestramento? Un revolver miracoloso?
Niente di tutto questo, la strategia è molto più semplice. Ciò che ha fatto
il cecchino in realtà è stato prima sparare e poi disegnare i cerchi del
bersaglio attorno ai fori dei proiettili in modo che il centro fosse appunto al
centro (Figura 2.2). Va da sé che questa procedura garantisce risultati
migliori di quelli che il cowboy avrebbe raggiunto se avesse disegnato il
bersaglio prima di sparare. Se si contano tutti i proiettili che hanno “colpito”
il bersaglio, adattando il bersaglio ai colpi sparati, si ottengono nove centri
su dieci possibili, o un 90 per cento di accuratezza. Eseguire questa
operazione nel modo giusto, ovvero disegnando il bersaglio prima di
sparare, diciamo al centro del enile, avrebbe determinato un risultato
meno positivo. Potreste pensare che questo trucchetto sia un imbroglio, e lo
è. Scienti camente si chiama data tting,*che in sé non è niente di
immorale. Ma usare i risultati strabilianti e spacciarli per predizione è
chiaramente ingannevole.
Nella nostra analogia, il cecchino è l’algoritmo, il bersaglio è la predizione
fatta dall’algoritmo e i fori di proiettile sono i dati. Per spostare il bersaglio
nella posizione ottimale, il cecchino ha due gradi di libertà: spostarlo a
destra o a sinistra e su o giù sulla parete del enile. Con queste due opzioni,
può piazzare miracolosamente qualunque possibile serie di colpi attorno al
centro del bersaglio. Questi gradi di libertà vengono chiamati parametri
liberi di un algoritmo. Gli algoritmi possono avere più di due parametri. I
modelli nanziari, per esempio, ne hanno considerevolmente di più, il che
consente loro una grande essibilità nel dare conto di quasi qualunque cosa
– a fatti avvenuti.
Se il cecchino avesse prima disegnato il bersaglio sul enile e poi avesse
abilmente sparato attorno al centro, meriterebbe sul serio ammirazione. Su
questa falsariga, una predizione reale si veri ca quando prima si fanno le
predizioni e poi vengono ottenuti i dati. La distinzione fra adattamento e
predizione è la linfa vitale di ogni studente di apprendimento automatico e
dovrebbe essere evidente agli scienziati in ogni campo. Ma, nelle scienze
sociali o nelle imprese commerciali, spesso gli algoritmi vengono
semplicemente adattati per corrispondere ai dati, e il risultato viene
spacciato per predizione.34 Ecco un principio utile:
Veri cate sempre se la performance esaltante di un algoritmo sia stata ottenuta attraverso una
z
predi ione o un mero adattamento .
Torniamo indietro e applichiamo questo principio ai notevoli livelli di
accuratezza nel “predire” il divorzio. Di fatto, nessuno di questi studi aveva
predetto alcunché. Gli autori sapevano già quali coppie stessero ancora
insieme e quali avessero divorziato, dopodiché, come il cecchino texano,
avevano adattato ai dati il loro algoritmo.35 Quel che avrebbero invece
dovuto fare sarebbe stato attuare una procedura in due stadi: prendere un
gruppo di coppie e adattare (sviluppare) l’algoritmo, poi veri care le
predizioni per un nuovo gruppo di coppie.
Questo è ciò che fecero alcuni ricercatori indipendenti con un nuovo
gruppo di 528 persone.36 Quando adattarono l’algoritmo ai dati, esso
“predisse” correttamente una percentuale analogamente alta (65 per cento)
delle coppie divorziate. Ma allorché l’algoritmo fu testato su un nuovo
gruppo di coppie e non si sapeva ancora se qualcuno dei loro matrimoni
fosse nito in un divorzio, cambiò tutto. L’algoritmo predisse correttamente
solo il 21 per cento di quelle che avrebbero divorziato.37 È questa la sua vera
accuratezza.
E c’è un altro quesito: quanto è giusto il 21 per cento? Fra le coppie dello
studio, il 16 per cento divorziò fra i primi tre e i primi sei anni di
matrimonio. Ciò signi ca che, se chiudete gli occhi e vi limitate a predire
che ogni coppia divorzierà, potete già aspettarvi di azzeccarci al 16 per
cento. Questo è l’indice di riferimento. Ogni algoritmo degno di questo
nome deve predire in modo sostanzialmente migliore di così. Nello studio
che abbiamo preso in considerazione, l’algoritmo fa un po’ meglio, ma non
molto. La vera performance dell’algoritmo era del 5 per cento; tutto il resto
era aria fritta.
State attenti alla fallacia del cecchino texano. Anche quando viene usato
il termine “predizione”, come negli studi sull’algoritmo del divorzio, esso
potrebbe essere impiegato erroneamente. Per scoprirlo, bisogna veri care se
l’algoritmo è stato prima saggiato su un campione di dati e poi veri cato su
un campione di erente. Questo processo in due stadi viene chiamato
“convalida incrociata” (cross-validation). Molti neuroscienziati, psicologi,
sociologi, economisti e studiosi nel campo dell’istruzione si limitano a
adattare i loro algoritmi ai dati, poi si fermano e riportano i grandi
numeri.38 Potreste chiedervene il motivo. Una delle ragioni è che produce
numeri più straordinari. In questo modo si elettrizza un pubblico ignaro
della fallacia del cecchino texano e lo si persuade dei poteri magici
dell’algoritmo. Ma c’è anche un’altra spiegazione più indulgente e al tempo
stesso più allarmante. Pare che molti scienziati sociali non comprendano
che l’adattamento non è una predizione, una confusione questa che ha una
lunga storia ed è stata documentata in molti altri studi.39 All’inizio del
secolo, limitarsi a adattare i dati era la regola in psicologia.40 Oggi, gli
scienziati sociali cominciano a riconoscere sempre di più l’importanza di
fare vere predizioni.
Un altro esempio della fallacia del cecchino è la ciarlataneria nanziaria.
Potreste aver sentito grandi notizie come questa: “Il nostro test retrospettivo
mostra che questa strategia innovativa ha battuto il mercato negli ultimi
dieci anni con una percentuale del 5 per cento”. I test retrospettivi sono
simulazioni storiche di una strategia di investimento. Come nel caso
dell’algoritmo del divorzio, tutti i dati sono noti e vengono adattati a grandi
numeri di strategie di investimento; quello che si adatta nella misura più
alta viene allora pubblicizzato come la migliore strategia di investimento –
analogamente a quanto avviene con la strategia del cecchino texano.
Questo problema è stato sollevato molte volte, ma tanti nel mondo della
nanza continuano a adattare i loro algoritmi ai dati senza dichiarare
sempre quanti algoritmi hanno provato.41 Essere onesti non produrrebbe
numeri in grado di attirare l’attenzione, e i clienti potrebbero preferire
investire negli algoritmi della concorrenza. La soluzione non è stabilire un
codice di onestà, che metterebbe gli onesti fuori dal mercato. Sarebbe
invece necessario che ci fossero cittadini informati che chiedono se sia
implicata una strategia del cecchino texano.
Il sico Niels Bohr amava dire: “La predizione è di cile, specie se
riguarda il futuro”. Questa battuta è stata attribuita a Mark Twain, Yogi
Berra e una serie di altri noti per le loro frasi argute.42Ma la faccenda è
piuttosto seria. Come abbiamo visto, quella che viene de nita predizione
potrebbe non avere niente a che fare con il futuro. Il senno di poi è facile,
ma la predizione è di cile, soprattutto in materia di amore e divorzio.
LO SBARCO SULLA LUNA
Potreste aver visto degli spot pubblicitari dell’ in cui una scatola
senziente interagisce con Bob Dylan, Serena Williams e altre celebrità. La
prima a ermazione della fama di Watson ebbe luogo nel 2011, dopo il
trionfo nel quiz televisivo Jeopardy! contro due dei suoi migliori
concorrenti. Dopo questo successo spettacolare, il valore delle azioni
dell’ aumentò di 18 milioni di dollari.43 Ginni Rometty, l’amministratore
delegato dell’ , annunciò che il prossimo “sbarco sulla Luna” sarebbe
stato l’assistenza sanitaria – non perché Watson sapesse qualcosa di sanità,
ma perché è lì che ci sono i soldi veri. Per adattarlo all’assistenza sanitaria,
Watson fu alimentato con dati medici come cartelle cliniche e terapie di
pazienti. Prima che fosse chiaro se Watson avrebbe davvero potuto
imparare a fare diagnosi e a raccomandare trattamenti come un medico,
erano sorte grandi aspettative. Rometty annunciò un’“età dell’oro” della
medicina in cui l’ “è reale, è popolare, è qui e può cambiare quasi
qualunque cosa dell’assistenza sanitaria”.44 Il dipartimento di pubbliche
relazioni dell’ di use l’idea che Watson avrebbe rivoluzionato la sanità,
o che lo aveva già fatto, e il team di Watson venne messo sotto pressione per
commercializzare in fretta il loro prodotto.45 La prima applicazione fu
l’oncologia.
“Watson for Oncology” fu commercializzato in tutto il mondo come
so ware capace di raccomandare trattamenti per pazienti con il cancro.
Dalla Anderson, uno dei più rinomati centri oncologici degli Stati Uniti,
ai Manipal Hospitals in India, molte cliniche acquistarono i suoi servizi e
pagarono per ogni paziente un prezzo che andava da 200 a 1000 dollari.
Tuttavia Watson non era nemmeno capace di prestazioni analoghe a quelle
di un bravo medico umano, altro che sbarco sulla Luna. Molte delle
raccomandazioni terapeutiche del programma si rivelarono scorrette, talune
pericolose, mettendo a rischio la vita dei pazienti.46 I messaggi dell’ a
mano a mano si ridimensionarono passando dall’esaltazione alla modestia,
ammettendo che le conoscenze mediche di Watson erano paragonabili a
quelle di uno studente di medicina del primo anno.47 La Anderson
annullò il contratto, rendendosi conto che il so ware non avrebbe potuto
essere all’altezza di ciò che aveva suggerito il dipartimento di marketing
dell’ . Il centro oncologico aveva speso 62 milioni di dollari, il che aveva
reso Watson lo studente di medicina più pagato di sempre. Anche le
maggiori cliniche tedesche licenziarono Watson dopo aver preso atto che le
sue raccomandazioni di cura somigliavano più a una stupidità arti ciale che
a un’intelligenza arti ciale. Secondo quanto detto dall’amministratore
delegato del Rhön-Klinikum, una rete di ospedali e cliniche, andare avanti
con Watson sarebbe equivalso a “investire in uno spettacolo a Las Vegas”.48
Anche altri partner dell’ misero ne o ridussero i progetti legati
all’oncologia di Watson. L’ non ha ancora pubblicato alcuno studio
scienti co che dimostri quanto la tecnologia di Watson abbia un e etto
positivo su medici e pazienti.
La morale di questa storia non riguarda Watson o l’ in generale, ma
piuttosto il marketing aggressivo, che non può soddisfare le aspettative
suscitate, e la fede acritica riposta nelle montature del marketing dai
giornalisti, non diversamente che da alcuni scienziati di . Nelle parole di
Oren Etzioni, amministratore delegato dell’Allen Institute for , già
docente di informatica, “Watson dell’ è il Donald Trump dell’industria
dell’ ”. In termini più gentili, Watson è solo un programma informatico
49
che può trasformarsi in un assistente per compiti medici di routine, ma non
nel medico brillante reclamizzato.
L’ commercializza Watson come un’intelligenza generale negli ambiti
dello spionaggio, della legge e della nanza. Alcuni banchieri ingenui
comprano i servizi di Watson per prendere decisioni di investimento
migliori. Ma se Watson fosse così bravo a predire il mercato azionario o
semplicemente a fare investimenti intelligenti, l’ non dovrebbe trovarsi
nelle di coltà economiche in cui versa.
Rendete le persone pi ù intelligenti
Perché non investire più denaro e continuare a provare? È una domanda
legittima – salvo che una quantità troppo elevata di prova ed errore
consuma attenzione e risorse che potrebbero essere spese meglio in misure
e caci che salvano sul serio dal cancro. Robert Weinberg, biologo e
oncologo riconosciuto in tutto il mondo, ha consacrato la propria vita
professionale a cercare le cause e i rimedi per il cancro. Tuttavia i farmaci
antitumorali possono allungare la vita solo di poche settimane o mesi,
facendo peraltro peggiorare in modo signi cativo la qualità del tempo che
resta. Inoltre, questi farmaci sono così costosi che nessun paese al mondo
può permettersi di o rirli a tutti i suoi cittadini. A una conferenza tenuta a
Amsterdam nel 2011, nanziata dalla Dutch Royal Academy of Sciences e
dalla Dutch Central Bank, Weinberg tenne una lezione magistrale con un
messaggio sorprendente per un biologo del cancro. Benché abbia passato la
vita a cercare di svelare le condizioni biologiche del cancro, considera
davvero promettente oggi il fatto di combattere il cancro al di fuori della
scienza biologica: con l’alfabetizzazione sanitaria di bambini e adolescenti.
Il ragionamento è questo:
– Circa la metà dei tumori complessivi ha le sue radici nel comportamento.
Il fumo, l’alimentazione e il movimento insu ciente che porta all’obesità
sono i fattori chiave.
– Queste abitudini nascono precocemente nell’infanzia o nell’adolescenza.
– Quindi, dobbiamo essere tempestivi nell’alfabetizzazione sanitaria di
bambini e adolescenti per impedire che si formino queste abitudini che
sono causa del cancro.
Weinberg e io unimmo le forze e ideammo un programma sperimentale
da attuare nelle scuole, in cui non si diceva agli alunni che cosa fare e non
fare, ma si spiegava invece loro quali fossero i rischi per la salute e come
potessero essere adescati dalla pubblicità e dai compagni e indotti ad
assumere comportamenti insalubri. Il programma insegna abilità come il
piacere di cucinare, la conoscenza di come funziona il nostro organismo,
attività salutari, atteggiamenti scienti ci di base come formulare domande e
trovare risposte facendo esperimenti, e la consapevolezza di dove cercare
informazioni a dabili. Senza usare la costrizione o il nudging, fornisce a
questi giovani gli strumenti per assumere il controllo della loro salute.
Presentammo questo programma sull’alfabetizzazione rispetto al rischio in
due successive conferenze sulla prevenzione del cancro a Amsterdam. Il
capo della Dutch Cancer Society era venuto a trovarmi a Berlino e mi disse
di essere interessato a nanziare il programma nelle scuole di certe zone dei
Paesi Bassi dove il problema dell’obesità stava aumentando fra i piccoli.
Alla terza conferenza sulla riduzione dell’incidenza del cancro, tenne un
discorso lo stesso capo della Cancer Society. Ci saremmo aspettati di sentirlo
parlare del programma di prevenzione del cancro. Invece parlò delle
promesse dei big data per guarire dal cancro. Weinberg e io non riuscivamo
a credere alle nostre orecchie. In seguito gli parlammo, ma inutilmente. Il
capo della Society era stato persuaso, per paura di restare indietro rispetto
alle altre organizzazioni, a nanziare la ricerca sui big data. Questa fu la
ne del nostro progetto di alfabetizzazione sanitaria dei giovani. Tutti i
fondi andarono all’industria.
1. Newell, Shaw, Simon (1958a).
2. Attribuito a Richard Feynman mentre parlava a una cerimonia di laurea al Caltech (fonte della
citazione incerta).
3. Citato da Boden (2008, p. 840). C’è una tensione sconcertante fra il lavoro di Simon sul processo
decisionale e la razionalità limitata, che si focalizza sull’incertezza, e il suo lavoro sull’ , focalizzato
su problemi ben de niti come gli scacchi. Nel suo lavoro sulla razionalità limitata, Simon distingue
fra incertezza e problemi ben de niti, mentre nei suoi scritti sull’ questa distinzione sparisce
(Gigerenzer, 2021).
4. Dreyfus (1979).
5. Vedi Katsikopoulos et al. (2020), dove viene chiamato “il principio del mondo instabile”, che è lo
stesso principio.
6. Kay, King (2020); Taleb (2010).
7. Mako (2011).
8. Ferrucci et al. (2010).
9. Lee (2018).
10. Russell (2019, pp. 47-48).
11. Kumar et al. (2009). In questo esperimento, il 50 per cento delle coppie presentate mostrava la
stessa persona e l’altro 50 per cento persone diverse.
12. Per questo esempio e il successivo, vedi Katsikopoulos et al. (2020, cap. 4).
13. Chiusi (2020, p. 195).
14. Simon, Newell (1958).
15. Krauthammer (1997).
16. Vedi Katsikopoulos et al. (2020).
17. Aikman et al. (2021).
18. Gigerenzer, Hertwig, Pachur (2011); e Katsikopoulos et al. (2020).
19. Wachter (2017).
20. Kellermann, Jones (2013).
21. Ibidem.
22. Wachter (2017).
23. Schulte, Fry (2019).
24. Vedi Carr (2014).
25. Young et al. (2018).
26. Wachter (2017).
27. Schulte, Fry (2019).
28. (2020).
29. Wachter (2017, p. 71).
30. Gigerenzer, Muir Gray (2011).
31. Gottman, Gottman (2017, p. 10); https://www.gottman.com/about/research/; Gottman et al.
(1998).
32. Vedi Heyman, Slep (2001).
33. https://www.gottman.com. Vedi anche Barrowman (2014).
*Il curve tting è il processo di costruzione di una curva o di una funzione matematica che abbia la
migliore corrispondenza a una serie di punti assegnati. In questo caso si tratta di adattamento di dati
che trovano la corrispondenza desiderata. [NdT]
34. Roberts, Pashler (2000).
35. Heyman, Slep (2001).
36. Ibidem.
37. Ibidem. La di erenza fra il 65 per cento e il 21 per cento è detta over tting.
38. Per il campo dell’economia comportamentale, vedi, per esempio, Berg, Gigerenzer (2010).
39. Adattare era anche la regola in statistica, per esempio nel Journal of American Statistical
Association; vedi Breiman (2021).
40. Fino agli anni Novanta del Novecento, si sarebbe dovuto cercare parecchio per trovare
qualunque predizione rispetto al cognitive modeling in generale. Vedi Roberts, Pashler (2000); e
Brandstätter et al. (2008).
41. Bailey et al. (2014).
42. https://quoteinvestigator.com/tag/niels-bohr/.
43. Russell, Norvig (2010).
44. Strickland (2019).
45. Ross, Swetlitz (2018).
46. Topol (2019).
47. Best (2013).
48. Schwertfeger (2019).
49. Brown (2017).