Con l’algoritmo si fanno previsioni, ma poi bisogna comprenderle…

Sta avvenendo uno scisma nella comunità scientifica. Da una parte la mente umana, la fonte di ogni storia; dall’altra le macchine, delle quali gli algoritmi posseggono un incredibile potere predittivo ma il cui lavoro interno rimane ancora opaco agli occhi umani. Mentre noi umani ci impegniamo a comprendere la fondamentale natura dell’uomo, le nostre macchine tirano fuori pratiche previsioni che sembrano estendersi oltre i limiti del pensiero. Mentre capire soddisfa la nostra curiosità, le previsioni soddisfano i nostri desideri.

Fino a non poco tempo fa, la comprensione e la previsione erano alleate contro l’ignoranza. Francis Bacon fu il primo a metterle insieme nei primi tempi della rivoluzione scientifica, quando affermò che gli scienziati dovrebbero essere attivi nel mondo, sperimentandone gli strumenti. Isaac Newton ha adottato entusiasticamente la filosofia empirica di Bacon. Non ha però tenuto conto che nella crescita di questi strumenti c’erano i semi di una discordanza: tra quello che la mente umana poteva capire sui meccanismi fondamentali del mondo e ciò che le nostre capacità potevano misurare e modellare. Oggi, questo divario minaccia di far saltare l’intero progetto scientifico.

Pare che abbiamo raggiunto un limite verso il quale la comprensione e la previsione – meccanismi e modelli – stiano cadendo parallelamente. Nell’epoca dei ‘big data’, il collegamento tra la comprensione e la previsione non si aspetta più la verità. Si sta cercando, oggi, di arrivare a definire un mondo più complesso del passato: dalle cellule ai tessuti, dal cervello ai bias cognitivi, dal marketing al clima. I nuovi algoritmi permetto- no di programmare alcune caratteristiche di comportamento di questi sistemi che imparano ed evolvono, mentre gli strumenti raccolgono moltissime informazioni su di loro. E mentre questi modelli statistici e le previsioni comprendono bene come fare le cose, per noi è praticamente impossibile ricostruire il loro modo di fare. L’intelligenza strumentale, tipica delle macchine intelligenti, non è solo impermeabile, ma è spesso attivamente ostile a farsi comprendere.

Tornando alla grande divergenza tra la comprensione e la previsione, c’è una frase di Spinoza proprio sulla Storia: «Lo scisma non è originato per amore della verità, ma piuttosto da un disordinato desiderio di supremazia». La battaglia è tra il cervello e l’algoritmo e su chi predominerà nel regno della scienza. I paradossi e le loro cugine percettive, le illusioni, offrono parecchi esempi della aggrovigliata relazione tra previsione e comprensione. Alcune delle più conosciute illusioni visuali riguardano le differenti interpretazioni che si possono dare di uno stesso oggetto, per esempio. I paradossi sono la conclusione di validi argomenti o osservazioni che sembrano però addirittura auto-contraddirsi o che appaiono illogiche.

La relazione tra la comprensione e la previsione, inoltre, corrisponde al collegamento tra l’ontologico (conoscenza della vera natura del mondo) e l’epistemologico (il processo di conoscenza acquisita sul mondo). Nei primi passi della scienza, accadeva che la base ontologica di una teoria diventava la base di una nuova e più avanzata previsione; l’ontologia generò in tal modo l’epistemologia. Ma una volta che il progresso scientifico raggiunse i propri limiti, l’ontologia e l’epistemologia divennero nemiche. Un modo per far risolvere il problema è semplicemente dichiarare che, davanti ai suddetti li- miti, l’ontologia sparisce.

Al giorno d’oggi, comunque, i moderni computer si sottraggono ovviamente a qualsiasi inclinazione a parlare (cosa che non avveniva con i vari teorici) e non hanno di certo desideri, ma eseguono solo precisi e imperscrutabili calcoli. Ad esempio, capire un discorso non è qualcosa di oggettivo, prevedere la correzione giusta di una traduzione lo è. E bisogna considerare che per la comprensione e la previsione, la nostra stessa enigmatica intuizione diventa un ostacolo al progresso. Capire, però, è il mezzo con il quale superiamo un mondo di paradosso e illusione per aprire la scatola nera della conoscenza.

David C. KRAKAUER president and professor of Complex systems, the Santa Fe Institute, New Mexico (estratto)

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *