Sui social attenzione alle bolle ideologiche create dagli algoritmi

Nell’ultimo ventennio è cambiato il modo di veicolare e di acquisire le informazioni, la digitalizzazione ha comportato un’inarrestabile profusione di contenuti informativi, veri o falsi che siano, e la possibilità per chiunque di accedervi.

L’uomo del 2021 è subissato da continui input capaci di operare nel subconscio, al di sotto del suo livello di consapevolezza. Nonostante la sovrabbondanza di informazioni però l’essere umano è sempre più incapace di accogliere idee e prospettive diverse dalle proprie; intrappolato in una bolla ideologica l’uomo alimenta e consolida le sue convinzioni chiudendosi in modo impermeabile a tutto ciò che non è in linea con i suoi interessi, le sue idee e le sue aspettative.

A causa della strategia di personalizzazione dei contenuti adottata dai colossi della rete, l’uomo digitale è ridotto a mero elemento di un cluster, la sua mente è colonizzata da immagini, parole e notizie atte a rimodellarla e, in qualche modo, confinarla. Il rischio che questa classificazione delle persone possa significativamente limitarne lo sviluppo è sempre più evidente tanto più se si considerano i minori, cd. nativi digitali, e la loro assidua, spesso incontrollata, presenza on-line. Pochi mesi fa la stampa statunitense ha pubblicato i cd Facebook Papers che evidenziano, tra le tante, le ripercussioni che l’utilizzo del social Instagram, di proprietà di Facebook, provocherebbe sulla salute di più del 32% delle adolescenti che lo utilizzano.

Dalle dichiarazioni della whistleblower ed ex dipendente della società Frances Haugen è altresì emerso che le meccaniche fondamentali delle piattaforme del colosso digitale, come gli algoritmi di moderazione e la chiusura delle persone in una camera d’eco, sono funzionali alla diffusione della disinformazione e dell’incitamento all’odio. L’interazione limitata con il web ed il ruolo affidato a questi algoritmi stanno di fatto escludendo l’uomo da ogni tipo di contaminazione ideologica e da ogni confronto dialettico costruttivo.

L’avanzamento delle neurotecnologie e delle tecniche di brain writing e di brain reading, che, in modo sempre più invasivo, sono capaci di analizzare, leggere e, addirittura, riscrivere il pensiero umano attraverso interventi eteronomi sul processo cognitivo rendono il quadro ancor più preoccupante. Tali tecniche consentirebbero un vero e proprio hackeraggio del cervello finalizzato, per il momento, ad un uso clinico, ma che sembra essere il preludio di un futuro distopico. La decuplicazione degli investimenti in neurotecnologie da parte delle big tech e la loro proliferazione nel mercato del consumo, direct to consumer, sono dati da considerare con attenzione. Parliamo di dispositivi capaci di raccogliere informazioni sul processo cognitivo ed immetterle nell’ecosistema digitale: il cervello è nudo, vulnerabile e suscettibile di subire una coercizione indiretta impercettibile dall’esterno.

Prendendo in prestito le parole del filosofo Remo Bodei replico la sua domanda “Non finiremo allora per diventare eterodiretti e non avremo bisogno di aumentare la nostra vigilanza nei confronti di questi cavalli di Troia e di attenerci, per così dire, a una sorta di manuale di autodifesa contro le intrusioni nella sfera dei nostri pensieri , delle nostre immagini e passioni?”. Si, abbiamo bisogno di questo manuale ed è compito degli studiosi del diritto, insieme ai filosofi ed ai sociologi, nonché alle istituzioni sociali scriverlo a più mani, per stabilire quando e fino a che punto la naturale insondabilità del desiderio umano possa essere trasformata in un dato scientifico ed a chi debba essere attribuita la responsabilità di questa intrusione e delle sue conseguenze. Tecnicamente possibile non può essere sinonimo di giuridicamente ed eticamente sostenibile. È necessario comprendere quali forme di innovazione, intesa come la capacità della tecnologia di fare meglio e in maniera più efficiente una cosa, corrispondano ad un effettivo miglioramento dell’essere umano.

Siamo le nostre scelte e se una macchina o un algoritmo si insinua nei nostri processi decisionali sino a influenzarli in modo più o meno determinante subiamo la perdita di uno dei tratti caratterizzanti della nostra persona. Lo sviluppo sostenibile delle tecnologie è una sfida che richiede il coinvolgimento di più competenze. Giuristi, sociologici e filosofi sono chiamati a riflettere sul percorso da intraprendere insieme alle istituzioni: un’azione congiunta il cui faro devono essere esclusivamente le prerogative della persona.

Antonella DI CERBO, Dottoranda in diritto civile presso l’Università del Sannio

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *