Facebook, e in generale i social network gestiti da grandi compagnie private, hanno intensificato gli strumenti tecnici in grado di controllare ed eventualmente filtrare i contenuti generati dagli utenti. Recentemente in Italia ha fatto discutere la chiusura delle pagine di alcuni gruppi neofascisti nostrani, cui è seguito l’oscuramento di alcune pagine che richiamano un immaginario di sinistra, ma adoperando i registri dell’ironia e della parodia attraverso lo strumento dei ‘meme’. Stiamo assistendo a mosse bipartisan a tutela di una formale equidistanza dagli “opposti estremismi” oppure sono in atto meccanismi più complessi? Abbiamo chiesto ad Alessio Di Marco di sviluppare un ragionamento sul punto.
La censura “intelligente” di Facebook
di Alessio Di Marco
Tra il 23 e il 24 settembre una serie di pagine Facebook[ref]1. Flavio Pintarelli, Zuccati, 24.09.2019.[/ref] che pubblicavano meme[ref]2. Si tratta, secondo la definizione di Wikipedia Italia, di «un’idea, stile o azione che si propaga attraverso Internet, spesso per imitazione, diventando improvvisamente famosa»; «ha forma di un’immagine, una GIF o un video, e riesce a diffondersi principalmente attraverso social network, blog e posta elettronica».[/ref] e altri contenuti prevalentemente ironici, ma con richiami a un immaginario di sinistra, sono state prima nascoste e poi, in alcuni casi, totalmente eliminate. Almeno una fra queste pagine, quella dei “Socialisti Gaudenti”, è poi stata ripristinata probabilmente grazie ad alcuni articoli apparsi sui siti di importanti testate nazionali che segnalavano il fatto[ref]3. Cfr., ad es., Rosita Rijtano, Facebook chiude la pagina dei “Socialisti gaudenti” per dei post ironici su CasaPound. Poi fa dietrofront, in «Repubblica.it», 24.09.2019; Chiara Severgnini, Il caso della pagina “Socialisti Gaudenti”, sospesa per errore e poi ripristinata da Facebook, in «Corriere.it»; Roberto Pavanello, Socialisti Gaudenti come CasaPound e Forza Nuova: Facebook chiude la loro pagina. Poi la retromarcia, in «La Stampa.it», 24.09.2019.[/ref]. Oltre a quelle pagine, anche alcuni profili degli utenti che le gestivano hanno subito la stessa sorte. La piattaforma, infatti, tende a punire chi divulga il materiale del post incriminato, ossia l’utente che preme il tasto ‘pubblica’.
Premessa: da qualche tempo il social network di Mark Zuckerberg ha deciso di arginare la presenza sui propri spazi di contenuti che possano incitare all’odio: a inizio settembre, la piattaforma ha deciso di cancellare gli account ufficiali di Casa Pound Italia (Cpi) e Forza Nuova (Fn), quindi anche i profili personali dei loro leader. Più nello specifico, Facebook ha individuato i due movimenti come organizzazioni che incitano all’odio, definite dai suoi Standard della Community come:
Qualsiasi associazione di almeno tre persone organizzata con un nome, un segno o simbolo e che porta avanti un’ideologia, dichiarazioni o azioni fisiche contro individui in base a caratteristiche come la razza, il credo religioso, la nazionalità, l’etnia, il genere, il sesso, l’orientamento sessuale, malattie gravi o disabilità.[ref]4. Alla voce generale I. Violenza e comportamenti criminali, 2. Persone e organizzazioni pericolose degli Standard della community si legge: «Per impedire e interrompere atti di violenza reali, non permettiamo la presenza su Facebook di organizzazioni o individui che proclamano missioni violente o che sono coinvolti in azioni violente. Questo include organizzazioni o individui coinvolti nelle seguenti attività: Terrorismo; Odio organizzato; Omicidio di massa o seriale; Traffico di esseri umani; Violenza organizzata o attività criminale; Rimuoviamo inoltre contenuti che esprimono supporto o elogio di gruppi, leader o individui coinvolti in queste attività».[/ref]
Al contrario del caso di Cpi e Fn, in cui lo stesso social network ha avviato l’iniziativa censoria, è possibile – per chi scrive molto probabile – che nei casi del 23-24 settembre l’algoritmo deputato ad individuare le «attività di incitamento all’odio» abbia agito spinto da una cascata di segnalazioni arrivate da un qualche gruppo, più o meno massiccio, di utenti Facebook, che sono andati a ricercare quei post segnalabili e che il social network, vista la piega attuale, avrebbe immediatamente individuato come censurabili e quindi rimosso. E se questo è il caso, le segnalazioni sono arrivate con l’intento specifico di portare alla chiusura di quelle pagine, poiché, sempre automaticamente, Facebook nasconde ed elimina le pagine che per troppe volte violano le sue regole di pubblicazione.
Vista la vicinanza alla risoluzione del Parlamento dell’Unione europea del 19 settembre, che ha sostanzialmente equiparato l’ideologia comunista e soprattutto i suoi simboli a quelli nazisti, negli ambienti legati alle pagine di sinistra, sommerse dalle segnalazioni, si era immediatamente diffusa la convinzione che vi fosse stata una sorta di “adeguamento” della politica anti-odio portata avanti da Facebook ai nuovi principi sanciti dall’UE.
In questo caso, però, ad essere stati segnalati sono stati quei contenuti che, nel testo o nelle immagini, citavano simboli riconducibili a nazismo o fascismo, oppure che semplicemente nominavano quei termini. Erano meme, frasi e post che comunque attaccavano fascismo e nazismo, in modo ironico o meno, ma che in nessun caso ne formulavano una qualche apologia. Insomma, Facebook non stava attuando un attacco al comunismo, semplicemente non era stato in grado di leggere l’ironia o la “direzione” dei contenuti che aveva identificato come “discorsi d’odio”.
Al di là della spinta iniziale, è stato probabilmente uno degli algoritmi della grande F di Menlo Park ad aver deciso, arbitrariamente e quasi senza possibilità di appello, che le pagine sanzionate avevano diffuso contenuti potenzialmente pericolosi e portatori d’odio.
In generale[ref]5. In questo caso specifico la rapidità e l’omogeneità nell’individuazione dei contenuti poi eliminati rendono quasi certo il fatto che sia stato in esclusiva un qualche algoritmo a decidere delle sorti delle pagine e degli utenti segnalati. Ed è forse anche relativamente semplice identificare come i meccanismi dentro la scatola nera dell’algoritmo abbiano funzionato. Schematizzando il funzionamento in ottica cibernetica: gli input erano tutti i contenuti che contenevano richiami a nazismo, fascismo o altri argomenti “pericolosi”; l’output è stata l’attività censoria del contenuto.[/ref], l’attività di moderazione del social network sembra essere quasi del tutto automatizzata: i moderatori umani esistono, ma sono alcune migliaia a fronte di più di due miliardi di utenti attivi. Il problema quando sono degli algoritmi a prendere le decisioni è la poca o nulla trasparenza dei processi che portano quelle stringhe di codice a dare determinate scelte. Rimanendo sull’esempio delle segnalazioni dei post di quei giorni, si può sintetizzare il funzionamento del sistema utilizzando una chiave di lettura tipica del modello “black box”. Schematizzando, si tratta di un sistema descrivibile soltanto nel suo comportamento esterno, ovvero nel modo in cui reagisce a determinati input, producendo determinati output, senza conoscere il funzionamento interno al processo: nel nostro caso, l’input che il sistema riceve è proprio il contenuto del post segnalato; l’output è la decisione sulla censurabilità del contenuto; in mezzo vi è una scatola nera, l’algoritmo, che analizza l’oggetto e “decide” della sua sorte. In questo caso, probabilmente, il funzionamento della black box algoritmica è sintetizzabile in un banale “ogni espressione letterale di nazismo/fascismo/odio = male = censurare”. Però non possono che rimanere oscuri, poiché Facebook non ha intenzione di divulgarli, i passaggi tecnici che portano un particolare algoritmo a individuare, ad esempio in un’immagine, lo specifico elemento della sua attenzione e il modo in cui decide cosa fare di questo.
L’insondabilità della scatola nera pone una serie di questioni.
Un primo rischio è quello di vedere gli algoritmi come delle entità oggettive, composte da oggetti matematici e quindi neutrali nel loro funzionamento. La fiducia nella scientificità del dato numerico tende a nascondere una determinante e banale verità, ossia che gli algoritmi sono prodotti di una qualche attività umana e, in quanto tali, portatori di una serie di caratteristiche figlie del pensiero, e del processo di costruzione e “messa a punto”, di chi li ha progettati. Con algorithmic bias (lett.: “distorsione algoritmica”) ci si riferisce alla tendenza all’errore di un sistema algoritmico, tale da fornire sistematicamente risultati ingiusti. Ad esempio, potrebbero finire incarnate nell’algoritmo credenze e pregiudizi di chi l’ha programmato; oppure potrebbero essere i dati utilizzati per “istruire” l’algoritmo a contenere una qualche distorsione che si manifesterà negli output del processo.
Dal punto di vista sostanziale e procedurale, l’algoritmo di Facebook che ha censurato i post contenenti richiami a nazismo o fascismo sembra essere perfettamente neutrale: ha deciso coerentemente di non consentire, in qualsiasi caso, la pubblicazione di quei contenuti.
Ma a un’analisi più circostanziata è evidente, come già accennato, quanto effettivamente poco neutrale sia stato tutto il processo. Facebook con questo tipo di delega algoritmica, incapace di individuare l’ironia e la critica, finisce con equiparare nei fatti discorsi d’odio e discorsi anti-odio; contenuti fascisti e contenuti antifascisti. Delegando alla macchina il processo decisionale il social network rischia di depotenziare la possibilità di critica: a cadere sotto i colpi delle segnalazioni è stata pure la pagina dell’Osservatorio contro i fascismi Trentino Alto Adige-Südtirol, a cui non può essere imputata nemmeno una qualche ironia troppo spinta, come quella di alcune delle pagine “di meme” oscurate. Gli algoritmi, dunque, non sono nemmeno formalmente neutrali, prendono decisioni e ad ogni decisione “scelgono” di dare priorità a determinate informazioni a discapito di altre.
Un secondo rischio collegato all’oscurità del processo algoritmico e alla sua inconsapevole ed automatica accettazione è la possibilità che ad esso venga garantita una certa presunzione di veridicità. Non individuandoli immediatamente come prodotti umani e fondando sulla loro non-umanità il nostro rapporto, il rischio è quello di reputare una determinata azione come giusta perché “l’ha detto l’algoritmo”. È un passaggio differente rispetto, ad esempio, al vecchio “l’ha detto il telegiornale”. L’autorità che entra in gioco qui non è quella dell’esperto informato che sta comunque esprimendo un’idea contestabile, ma quella di un soggetto composto interamente di numeri e logica, una macchina comunque priva di ideali e quindi definitivamente non schierata e sincera. Le responsabilità decisionali vengono occultate dietro un’entità incorporea, che trova la giustificazione al suo agire nella sua capacità di calcolo, in termini di precisione e volume: uno strumento in grado di processare una grande quantità di dati e che dall’analisi di questi trova il fondamento delle sue decisioni, non potrà che prendere decisioni giuste, vere. Su larga scala, il rischio è quello di affrancarci dal dubbio consegnandoci ai dati: la fiducia crescente, da una parte, nella possibilità di scomporre l’agire umano nelle sue componenti quantitative (ogni cosa che facciamo è sostanzialmente un dato numerico analizzabile) e, dall’altra, la fiducia nella capacità dei processi algoritmici di fornire risposte, sempre certe ed attendibili, su queste analisi (ogni decisione che prende l’algoritmo è infallibile). Ricollegandoci ancora al nostro esempio, il rischio qui è accettare il fatto se che quelle determinate pagine sono state censurate deve esserci stata una qualche evidenza che abbia “convinto” l’imparziale codice a ritenerle in qualche modo pericolose. Vista la sua neutralità ideologica, l’assunto che quelle pagine fossero in qualche modo pericolose non può che essere vero.
L’esempio di censura utilizzato in questo articolo è tutto sommato di lieve entità: sono state chiuse meno di una decina di pagine e alcune si sono già ricostituite. Il rischio maggiore è però legato al fatto che Facebook, che gode di una posizione sostanzialmente monopolistica nel mercato in cui si trova, utilizza probabilmente gli stessi meccanismi decisionali automatizzati per prendere decisioni su tutta la piattaforma, costituendo quindi un pericolo effettivo per la possibilità di critica e di espressione. Inoltre, va tenuto presente come le pagine di sinistra che hanno subito questi attacchi, anche quelle di meme, anche quelle ironiche, stiano agendo sul social network sostanzialmente in contrasto con lo stesso social network: stanno occupando un territorio, quello della critica all’attuale sistema (economico, politico, sociale), dentro quella che è nei fatti la principale espressione comunicativa del sistema stesso.
Riferimenti
- James Bridle, Nuova era oscura, Nero, 2019, http://id.sbn.it/bid/RAV2097367
- Facebook, Standard della community (italiano), https://www.facebook.com/communitystandards/dangerous_individuals_organizations
- Daniele Gambetta, Aprire la scatola nera, in «Not», 18.06.2019, https://not.neroeditions.com/aprire-la-scatola-nera/
- Daniela Gambetta (a cura di), Datacrazia. Politica, cultura algoritmica e conflitti al tempo dei big data, D Editore, 2018, http://id.sbn.it/bid/UBO4338120
- Daniele Gambit, Perché dobbiamo aprire la scatola nera dell’intelligenza artificiale, in «Vice», 12.07.2018, https://www.vice.com/it/article/ne5vqz/perche-dobbiamo-aprire-la-black-box-dellintelligenza-artificiale
- Karen Hao, This is how AI bias really happens—and why it’s so hard to fix, in «MIT Technology Review», 4.02.2019, https://www.technologyreview.com/s/612876/this-is-how-ai-bias-really-happensand-why-its-so-hard-to-fix/
- Yuval Noah Harari, Homo Deus. Breve storia del futuro, Bompiani, 2019, http://id.sbn.it/bid/RL10026376
- Alexandre Laumonier, 6|5. La rivolta delle macchine, Nero, 2018, http://id.sbn.it/bid/USM2002769
- Meme, in «Wikipedia» (italiano), https://it.wikipedia.org/wiki/Meme_(Internet)
- Roberto Pavanello, Socialisti Gaudenti come CasaPound e Forza Nuova: Facebook chiude la loro pagina. Poi la retromarcia, in «La Stampa.it», 24.09.2019, https://www.lastampa.it/cronaca/2019/09/24/news/socialisti-gaudenti-come-casapound-e-forza-nuova-facebook-chiude-la-loro-pagina-1.37504738.
- Flavio Pintarelli, Zuccati, blog, 24.09.2019, https://flaviopintarelli.it/2019/09/24/zuccati/
- Rosita Rijtano, Facebook chiude la pagina dei “Socialisti gaudenti” per dei post ironici su CasaPound. Poi fa dietrofront, in «Repubblica.it», 24.09.2019, https://www.repubblica.it/tecnologia/social-network/2019/09/24/news/facebook_chiude_la_pagina_dei_socialisti_gaudenti_per_dei_post_ironici_su_casapound-236826769/
- Radio Blackout, Zuccate, audio, 26.09.2019, https://radioblackout.org/2019/09/zuccate-la-xenoleft-sotto-attacco-da-parte-di-facebook/
- Chiara Severgnini, Il caso della pagina “Socialisti Gaudenti”, sospesa per errore e poi ripristinata da Facebook, in «Corriere.it», https://www.corriere.it/tecnologia/19_settembre_25/caso-pagina-socialisti-gaudenti-sospesa-poi-ripristinata-facebook-errore-0cd969a0-df68-11e9-aa5f-fbca0c81b7c9.shtml
2 commenti
Pingback
25 Ottobre 2019 at 7:43Pingback
22 Novembre 2019 at 8:16