AVVERTENZE PER GENI

RIVISTA DI CONSIDERAZIONI CULTURALI DIRETTE A PERSONE IN GRADO DI LEGGERLE

LA CENSURA ALGORITMICA

Algoritmo

di Maurizio Caminito

La profilazione

Come ricordato nella presentazione di un recente convegno promosso a Roma dall’Associazione Italiana Biblioteche,[1] accanto alla persistenza delle forme più tradizionali di censura (libri, documenti, giornali bruciati, all’indice, nascosti, autori discriminati, perseguitati, assassinati), oggi emergono fenomeni di censura indiretta, che si avvalgono di nuove forme di “controllo tecnologico” e di sofisticate metodologie al fine di indirizzare, spesso in modo occulto, il consenso e i comportamenti delle persone. E’ la cosiddetta “censura algoritmica” che assume, appunto, spesso le caratteristiche di censura indiretta. Gli algoritmi, infatti, sono il pilastro dell’economia basata sui dati, quella che tende a capitalizzare le informazioni degli utenti-cittadini, per fornirgli servizi e prodotti, e quindi ottenere un profitto[2].

Il termine utilizzato per descrivere l’approccio degli algoritmi per ricavare informazioni da dati raccolti in vario modo è Data Mining. Ogni qualvolta usiamo un computer, uno smartphone, un dispositivo connesso alla rete Internet, dei dati vengono raccolti, registrati, inviati a qualcuno per essere integrati in un vasto insieme di dati. Questo data base viene, appunto, algoritmicamente scansionato per estrarre (mining) correlazioni dai dati, per ricavarne dei modelli di comportamento. Per fare questo non è necessario procedere all’identificazione di un individuo, quanto alla sua classificazione, cioè all’inserimento in determinate categorie utili per l’invio di pubblicità personalizzate. Il problema non sta nella profilazione in sé, quanto piuttosto nel fatto che la classificazione è del tutto indipendente dalla volontà dell’individuo.

Il controllo

Di solito si pensa che i risultati delle nostre ricerche su Google siano definiti dal famoso Pagerank, l’algoritmo che ordina i risultati di ogni ricerca secondo la loro rilevanza. In realtà dal dicembre 2009 non è più così. Oggi ciascuno di noi vede risultati diversi, a seconda di ciò che, secondo un algoritmo che conta circa 60 indicatori, è più “adatto” a noi. Questa “era della personalizzazione” nasce dal fatto che i motori di ricerca sono impostati per assecondare le nostre idee. E lo fanno raccogliendo e analizzando i nostri dati personali.

Naturalmente lo scopo prioritario è quello di inviare a ciascuno pubblicità online di prodotti che riguardano, in qualche modo, le parole che abbiamo cercato o le pagine web che abbiamo condiviso (è stato calcolato che per ogni ricerca riceviamo 223 cookie e beacon che permettono ad altri siti di inviarci comunicazioni pubblicitarie)[3].

Anche Facebook ha una sua “politica dell’inclusione (e dell’esclusione)”. Attraverso il fattore “Last Actor”, introdotto dal 2013 nell’algoritmo che determina l’ordine con cui compaiono i post nella home page di ciascuno, in pratica Facebook memorizza gli ultimi cinquanta utenti con i quali abbiamo interagito, mostrandoci nei giorni successivi soprattutto i loro post.[4] Tale tendenza è stata rafforzata nel 2018 dando priorità ai post che “generano conversazioni e creano interazioni significative tra le persone”. I contenuti condivisi da amici e familiari hanno quindi da quel momento la precedenza rispetto ai post condivisi dalle Pagine, quelle di testate giornalistiche, per esempio.

La sperimentazione e lo sviluppo degli algoritmi oggi trova nel machine learning la sua frontiera più aggiornata per “dedurre dai dati tutto il sapere di questo mondo: passato, presente, futuro”, attraverso l’utilizzo di metodi statistici per migliorare progressivamente la performance di un algoritmo nell’identificare pattern nei dati. Con l’obiettivo finale di scrivere quello che Pedro Domingos ha chiamato l’Algoritmo Definitivo.

Un’ulteriore “progresso” del controllo avviene oggi con la diffusione degli smartphone: il cellulare sa dove siamo e dove andiamo, chi chiamiamo, quali amici abbiamo, cosa leggiamo, se stiamo camminando o se siamo in macchina. Tutto ciò fa parte di quello che è stato chiamato “mercato dei comportamenti”, all’interno del quale informazioni su di noi vengono scambiate e offerte a operatori commerciali dai grandi colossi del web, ma anche da agenzie specializzate. Aziende come BlueKai, Experian o Acxiom, dette “Data Broker”, conservano in media 1500 informazioni di vario tipo su ogni utente nordamericano, in quanto sono in grado di unificare, oltre a dati sulla navigazione online, anche banche dati telefoniche, relative al credito, alle proprietà, alla localizzazione, alle vendite al dettaglio, in un unico flusso digitale.

Senza contare le evidenti degenerazioni introdotte anche dai trojan horse, i “cavalli di Troia” informatici che — come Exodus usato dalla polizia italiana per esigenze investigative — possono essere inoculati di nascosto nei cellulari e prenderne il controllo. Letteralmente. Exodus è in grado di accendere alla webcam, attivare il microfono, registrare conversazioni anche cifrate, prelevare i contatti della rubrica, gli sms, le chat di Whatsapp e gli appunti, vedere le foto, individuare geograficamente l’utente grazie al Gps e catturare tutto ciò che viene digitato sulla tastiera, password, chiavi d’accesso e numeri di carte di credito compresi. Quelli di ultima generazione riescono anche a eliminare le tracce delle operazioni effettuate, rendendo impossibile capire se qualcuno ha alterato i dati contenuti nel telefono. Non a caso il Garante ha scritto ai presidenti di Camera e Senato, al premier Giuseppe Conte e al ministro della Giustizia Alfonso Bonafede per sollecitare un intervento legislativo urgente che ne regolamenti e ne circoscriva l’uso.

Effetti collaterali

Il meccanismo sempre più sofisticato di controllo dei comportamenti individuali, nato per motivi puramente commerciali, non condiziona però solo quello che compriamo. In sostanza viene creato un universo di informazioni specifico per ciascuno di noi, isolandolo in tal modo nella propria “bolla” culturale o ideologica. E’ quella che Eli Pariser ha definito la “Filter Bubble” (il filtro, la bolla di filtraggio). All’interno di un diluvio quotidiano di informazioni (1 milione di post nei blog, 50 milioni di tweet, 60 milioni di aggiornamenti di stato su Facebook e oltre 200 miliardi di mail) un algoritmo individua ciò che è “rilevante” per noi, scartando tutto il resto. E

“nella migliore delle ipotesi le aziende che scrivono gli algoritmi possono contribuire alla diminuzione dello spettro delle idee e dei punti di vista, tralasciando alcune informazioni e dando la precedenza ad altre. Nella peggiore, invece, possono usare i codici per filtrare alcuni pezzi di informazione e così arrivare a influenzare l’opinione pubblica, anche senza avere un obiettivo o un piano preciso”[5].

E affermare la ‘neutralità’ degli algoritmi significa non tenere conto del fatto che queste stringhe di istruzioni sono scritte da persone e, di conseguenza, possono contenere tutti i pregiudizi degli uomini che li sviluppano. E gli algoritmi negli anni si sono trasformati da elementi derivati dalla realtà in elementi in grado di dare forma alla realtà.

Il vero rischio è quello di perdere parte della conoscenza e impoverire il nostro spettro di idee e di interessi. Tutto ciò smentisce l’utopia del ‘villaggio globale’, la grande comunità planetaria in cui tutti possono scambiarsi informazioni ed opinioni su tutto.

 

NOTE

[1] Lunedì 6 maggio 2019 a Roma, presso la Biblioteca di Storia Moderna e Contemporanea, si è svolta la giornata di studi “La banalità della censura” promossa dall’Associazione italiana biblioteche. Alla tavola rotonda “L’ecosistema dell’informazione oggi tra istituzioni pubbliche, formazioni sociali, mercato e nuovi media” hanno partecipato: Danila Bonito (Ufficio stampa AIB), Renato Tamburrini (già Dirigente del Sistema bibliotecario di ateneo di Pisa), Giuseppe Laterza (Editori Laterza), Roberto Delle Donne (Università di Napoli Federico II), Maurizio Caminito (Associazione Forum del libro). Chair: Chiara De Vecchis, AIB sezione Lazio

[2] https://www.valigiablu.it/algoritmi-dati-rischi/ Licenza cc-by-nc-nd valigiablu.it

[3] Cfr.: Eli Pariser, The Filter Bubble. What the Internet is Hiding from you, NY, Penguin Book, 2012

[4] Dietro a tutto questo c’è un calcolo piuttosto complesso, denominato in origine EdgeRank.

[5] Afferma il prof. Kelly McBride del Poynter Institute di St. Petersburg, in Florida

 

 

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...

Informazione

Questa voce è stata pubblicata il Maggio 15, 2019 da in cultura, letture, media con tag , , , .
%d blogger hanno fatto clic su Mi Piace per questo: