Nazionalismi emergenti e odio

Nelle pagine del recente libro Europa anno zero la giornalista Eva Giovannini descrive, con grande cura, il suo peregrinare per le strade d’Europa alla ricerca dei focolai dei nuovi nazionalismi, in molti Paesi già fenomeni di grande consenso e non più ipotesi minoritarie. Dalla Francia all’Ungheria, dalla Germania all’Italia, dal Regno Unito alla Grecia l’autrice ricostruisce e illustra una rete assai articolata di contatti che sembra avvolgere, ormai, tutti gli Stati del Vecchio Continente.

Districandosi tra episodi di estremismo gretto, manifestazioni più o meno improvvisate, clamorosi e imprevisti successi elettorali, luoghi comuni e temi condivisi al di là dei confini nazionali, tentativi ben riusciti di “fare rete” e ricerca costante di consenso, l’autrice testimonia questa vera e propria “scarica elettrica” che sta attraversando l’Europa, che solleva non pochi timori negli analisti politici e che la giornalista ha ricostruito, come avrebbe scritto Egisto Corradi, consumandosi le suole delle scarpe: visitando luoghi, soprattutto, e parlando con persone.

 

Il lato digitale è, nel libro, volutamente meno trattato, tranne qualche riferimento a Facebook quale strumento assai efficiente di organizzazione di manifestazioni e all’attenzione evidente, da parte di molti estremisti, nei confronti dei nuovi media, soprattutto per tenere sotto controllo le variazioni degli indici di consenso. Si parla, in alcuni passaggi, di volantinaggio nei quartieri difficili, ma non di radicalizzazione e diffusione dei messaggi online.

Potrebbe allora essere interessante, partendo dalle indicazioni fornite nel saggio, spostarsi sul web e sui social network e valutare la possibilità di ricostruire quella stessa, lunga linea di nazionalismi che attraversa l’Europa tramite l’analisi automatizzata dell’odio circolante online.  

I temi e gli argomenti che la scrittrice riporta, ricavandoli puntualmente da storie di piazza, interviste, comizi e dialoghi con minoranze perseguitate e politici estremisti, si ritrovano, identici, in rete, a dimostrare che una spinta “dal basso verso l’alto” dei nuovi nazionalismi sta arrivando anche dal digitale e si percepisce, con gli stessi toni, sui forum e sui social network. 

 

Le “parole chiave” online e offline sono le stesse: immigrati, avversione verso la politica europea e l’euro, esasperazione per la crisi economica, paura dell’Islam e di “nuovi invasori”. Parole chiave che generano il malcontento sia “fisico” (citato nel libro) sia sul web, su Facebook e su Twitter. 

Al contempo, sono gli stessi politici incontrati dalla Giovannini a essere i primi a soffiare sul fuoco, anche sul web o sui social network, per alimentare paura e tensione e, quindi, bisogno di sicurezza nel cittadino che porterà, in cambio, consensi. L’odio verbale fatto volontariamente circolare è, sia nel mondo fisico sia in quello digitale, individuato ormai come una vera e propria valuta da spendere senza remore e scrupolo alcuno per puri fini elettorali. 

 

Anche sul web si trovano, poi, sempre più speso toni incredibilmente pacati e manifestazioni di distacco da posizioni estreme, che già l’autrice ha notato in dialoghi con leader politici e che veicolano, comunque, contenuti violenti. Un voler “tagliare i ponti” con il passato, un cercare di “sdoganarsi”, effettuato da molti nazionalismi, che è, però, soltanto un modo per far circolare con una veste differente dei contenuti d’odio che, in sostanza, sono gli stessi.

Sarebbe possibile, in definitiva, ricostruire questa rete e delineare queste “strade” anche online, automatizzando la ricerca dell’odio, seguendo delle mappe e delle linee, in base alle conversazioni, agli spostamenti di consenso, agli eventi organizzati in poche ore, e completare così un’analisi sul campo con un’analisi anche sui contenuti in rete?

 

L’uso della potenza di calcolo – e di raffinati algoritmi o metodi di studio – per cercare, individuare, etichettare, categorizzare e, eventualmente, segnalare o rimuovere espressioni che siano riconosciute come contenenti odio online, è un tema studiato da anni, e non sarebbe quindi un’idea nuova. 

Non mi riferisco al fatto, soltanto, di utilizzare programmi che “setaccino” i siti web estremisti, i social network e i forum più violenti al fine di comprendere se determinate espressioni siano offensive o meno o se possano incitare violenza o promuovere attacchi reali a beni o persone.

Si tratterebbe di comprendere come si possa effettuare un’analisi evoluta del testo, dei termini usati e del contesto online (proprio come l’autrice del libro ha fatto incontrando i protagonisti e dialogando con loro) al fine di agevolare, successivamente, analisi statistiche, procedure di evidenziazione di sacche d’odio nelle quali inoculare discorsi educative o azioni automatiche di segnalazione all’autorità o di rimozione del testo. Ciò permetterebbe di valutare, anche, la comunanza d’interessi e di termini usati dalle frange estremiste, indipendentemente dai confini dei Paesi.

 

Nell’ambito di contrasto al terrorismo, tali metodi sono già stati sperimentati ampiamente. Vi è stato un progetto, negli Stati Uniti d’America, di analisi bilingue con due lessici, uno inglese e uno arabo, per sviluppare la ricerca di opinioni terroristiche nei forum estremisti. In quell’occasione, fu elaborata una lista di 279 parole in inglese, correlate a minacce informatiche, radicalismo e conflitti, unita a “sentiment scores”, ossia a valori che segnalavano quanto quei termini fossero “di tendenza” o capaci di condizionare l’opinione. Con riferimento alla lingua araba, le parole furono estratte da duemila messaggi pubblicati su un forum contenente espressioni radicali: il risultato furono 109 parole (con varianti) utilizzate come chiavi di ricerca per “misurare” e individuare quel tipo di odio. 

Altri ricercatori hanno affrontato il tema dell’analisi delle espressioni d’odio nei commenti politici, usando sistemi combinati tra loro (Bag-of-Words, classificatori e algoritmi) e cercando di separare l’espressione d’odio dal testo del commento (si parla, in questo caso, di odio “embedded” nei commenti) senza far perdere al lettore il senso della frase. 

 

Gli algoritmi possono, poi, essere utilizzati non soltanto per analizzare singole liste di parole, ma anche intere community, e ciò diventa utile in episodi d’odio che coinvolgono conflitti tra gruppi. Il fine è quello di ricavare non soltanto informazioni sulla presenza d’odio nel contenuto, ma anche di stabilire la gravità e il potenziale dannoso del messaggio stesso.

Anche i “big metadata”, ossia masse enormi d’informazioni provenienti, ad esempio, dalle grandi piattaforme di social network, sono oggetto di ricerche in tal senso. Può essere utile usare le informazioni dei grandi service provider a fini di analisi politica, applicando sofisticati algoritmi di ricerca e software di analisi che permettano di raccogliere e analizzare tutti i dati di un provider, in particolare i dati degli operatori delle telecomunicazioni.

 

Progetti di detection automatizzata di espressioni d’odio possono, infine, essere mirati, e concentrarsi su singole aree, specifiche espressioni o ben identificati tipi di vittime. Uno studio interessante, sempre nordamericano, ha riguardato un’analisi dei tweet razzisti. Il tentativo di individuare messaggi con contenuti così specifici è stato portato avanti provando a etichettare i dati recuperati da diversi account in base a una divisione elementare: “tweet razzisti” e “tweet non razzisti”. Gli autori dello studio dichiararono una percentuale di accuratezza di circa il 76%: un buon esito che, se migliorato, può prospettare interessanti metodologie di gestione automatizzata dell’odio. 

 

I contenuti d’odio politico presenti su Twitter, però, sono tra i più complessi da gestire in maniera automatizzata: il sistema di funzionamento della piattaforma, oltre a essere il più diffuso al mondo, può presentare numerose variabili e tanti, differenti elementi d’identificazione: s’immagini, a titolo d’esempio, la differenza tra le parole contenute nel tweet, l’azione di retweet (RT), l’uso di hashtag, i nomi degli utenti e di eventuali URL incorporati nel tweet. Oltre a ciò, si pensi alla necessità e alle conseguenti difficoltà, ad esempio, di rilevare in maniera automatizzata i riferimenti politici, gli emoticons, le parole offensive, i punti interrogativi e i punti esclamativi – che possono mutare completamente il senso di un tweet –, lo slang tipico di Internet, i toni emozionali o termini correlati all’aggressività e alla guerra.

 

I sistemi automatizzati sono, in questo ambito, il futuro, e le ricerche stanno avanzando rapidamente; rimane pur sempre la difficoltà di analisi di quelle caratteristiche delle espressioni d’odio che non sono così facilmente riconoscibili e, soprattutto, di come si possano trattare le intenzioni, i toni nascosti, i sottintesi o l’odio veicolato attraverso termini non aggressivi senza censurare, al contempo, il libero flusso delle informazioni. Si pensi a quell’aspetto del nazionalismo “sdoganato” cui fa cenno la Giovannini in diversi passaggi del suo volume, caratterizzato da un uso molto attento dei termini per evitare che si riferiscano a episodi storici, o simboli, ben precisi.

Se si uniscono questi sistemi innovativi a un’analisi sul campo curata e aggiornata, è possibile fornire un quadro ancora più completo di fenomeni che hanno un’evoluzione rapidissima e una capacità di mutare in pochi istanti e di cui è fondamentale comprendere, a parte singoli e isolati episodi, proprio la struttura di rete. 

Sei arrivato fin qui da solo, ora andiamo avanti insieme: SOSTIENI DOPPIOZERO e diventa parte del nostro progetto. Basta anche 1 euro!