Viviamo un tempo incerto e fragile, attraversato – come sempre nella storia dell’umanità, ma oggi sembra un po’ di più – da odio e paure: penso alle guerre, al collasso climatico, alla conta delle violenze quotidiane. Così come il linguaggio con cui il mondo viene rappresentato e narrato. Dal covid in poi abbiamo cominciato a denunciare come il linguaggio bellico sia sempre più utilizzato dall’informazione, dalla politica, nella narrazione della società e sempre più spesso anche nella pratica si scelga la soluzione bellica invece di preferire il dialogo, il confronto, la diplomazia per cercare la via della pace. Ne abbiamo parlato con la sociolinguista e saggista Vera Gheno.
Oggi è sempre più facile essere vittime di aggressioni verbali e discorsi d’odio sui social network spesso usati proprio per colpire persone o gruppi. Si può essere colpiti per aver espresso un’opinione, ma anche per non averla espressa rispetto a un tema molto dibattuto in quel momento… Che effetto ha questo sulla nostra società e sulla sua coesione?
La pandemia, come più volte è stato detto, ha messo in luce una serie di fenomeni già presenti. Si è sottovalutato tantissimo il problema dei danni mentali causati dalla situazione pandemica, adottando una serie di misure che erano ovviamente giustificate, almeno in superficie, dalla condizione in cui eravamo, ma che sono state molto deleterie per la paura delle persone, il dolore, il malessere. Ogni misura presa per la famiglia, per esempio, è stata presa per la famiglia tradizionale e chi si trovava in qualche rapporto “non convenzionale” non ha avuto nessun modo di spezzare la propria solitudine. Questo ha prodotto conseguenze anche nell’aumento del discorso d’odio, dell’aggressività, della cattiveria. Che effetto ha questo sulla società? Ciò che accade nell’ambito delle comunicazioni interpersonali è una cartina di tornasole di come stanno le persone. Quindi la domanda che mi faccio è: come mai stiamo così male? E come mai se ne parla così poco? Perché siamo, più di prima, tutte e tutti potenziali odiatori, oltre che potenziali odiati? Ho la sensazione che viviamo in un momento di grande atomizzazione sociale, in cui si fa molto poco caso al fatto che siamo animali sociali, come diceva Aristotele.
E come reagiscono le comunità colpite da questo tipo di linguaggio?
Da un lato chi fa parte di una comunità tradizionalmente marginalizzata – che siano i neri, gli omosessuali, le persone trans, le persone disabili – oggi forse non sta più zitto e ha più spazio per denunciare gli episodi di odio a cui viene esposto/a. D’altro canto, sembrano colti di sorpresa dalla quantità di odio che li tange soprattutto coloro che fino a oggi hanno sostanzialmente potuto dire qualsiasi cosa senza venire contraddetti, perché si trova(va)no in una posizione di privilegio: le persone bianche, le persone senza disabilità e così via. La mia idea era che più si organizzano le comunità e più denunciano questi episodi, più anche le persone finora abituate a dire tutto senza contraddittorio si renderanno conto degli effetti deleteri dei discorsi d’odio, e questo potrebbe innescare dei circoli virtuosi. Quello che avevo sottovalutato è la crescita esponenziale dei populismi, proprio a livello di rappresentanza politica, e di come questa visione, propria di una destra nazionalsocialista, sarebbe andata a ringalluzzire un certo tipo di persone che, essendo questo il clima sociale, politico e culturale, si permettono ancora di più di abbracciare sentimenti di alterizzazione.
La censura operata dalle piattaforme, lo shadow ban su alcuni temi e gli strumenti di moderazione del linguaggio d’odio sono efficaci? Sono democratiche? E se non lo sono quali strategie si devono adottare?
Efficaci? No. Intanto molte persone negano l’esistenza dello shadow ban, però il fatto che vengano promossi certi temi rispetto ad altri è lampante. Si va però in una direzione che non è quella di censurare i discorsi d’odio, ma, al contrario, di censurare dei temi che sono un’espressione politica. Che senso ha censurare i discorsi sulla Palestina? Non sono discorsi portatori d’odio, ma riguardano un tema caldo che semplicemente la piattaforma vuole dribblare. Al contrario, tutte le volte che ho denunciato dei contenuti d’odio nei miei confronti, la piattaforma ha risposto che andavano benissimo. In realtà gli algoritmi censurano contenuti completamente random: la nudità rappresentata in un quadro viene censurata e un discorso nazifascista no. È evidente che abbiamo un problema con la moderazione automatica e con la gestione dei discorsi d’odio da parte della piattaforma. C’è una soluzione? Sono vecchia scuola in questo e penso che l’unica cosa che veramente funziona è il pre-bunking, cioè cercare di prevenire questi comportamenti piuttosto che cercare di curarli a posteriori, ragionando con le persone rispetto alla responsabilità che hanno sulle parole che scelgono di usare. Le regole di convivenza civile di una società funzionano non tanto laddove c’è un apparato di polizia che controlla che non vengano trasgredite, ma quando le persone vengono messe in una condizione di volontaria adesione a un codice di condotta civilizzato. Senza dimenticare che le piattaforme social non sono neutre, ma appartengono a pochi tycoon che detengono la maggior parte del potere mediatico ed economico del mondo e che saranno sempre espressione di una visione parziale dei loro padroni.
L’intelligenza artificiale ha già o avrà un ruolo nel contrasto (o nella diffusione) dell’odio online?
Per quello che ho letto finora le intelligenze artificiali non fanno che amplificare iniquità già esistenti. Le IA non fanno altro che riprodurre un mondo che noi abbiamo a lungo descritto con le nostre parole. Un’ulteriore questione è il fenomeno dell’intelligenza artificiale alimentata non più da testi umani, ma da testi scritti dall’intelligenza artificiale stessa. Questo fenomeno crea un effetto risonanza ancora maggiore, di distorsione di certi testi, perché l’intelligenza artificiale usa un linguaggio che non è esattamente quello umano. Cosa succederà alle IA con questo “secondo passaggio” di artificialità? I tentativi fatti finora di correggere il comportamento degli algoritmi hanno dato anche effetti clamorosi, ma nel senso di sbagliati. L’IA, per esempio, censurando alcune parole, non ti permette di scrivere dei testi completamente liberi. Se, usando il dittafono di un software come word dico una parola volgare, la trascrizione può avere gli asterischi e non sono più io a decidere se e dove inserirli. Ho grosse perplessità rispetto a quanto poco si parli di questi effetti, anche se, certamente, l’IA, come tutti gli strumenti, può essere utilizzata anche in modo positivo.
I politici sono spesso protagonisti nel diffondere odio attraverso le loro parole. Abbiamo sentito definire degli esseri umani come “carico residuale” e parlare di “cani e porci” riferendosi a persone migranti. Cosa succede al linguaggio che ci definisce in quanto esseri umani quando viene usato in termini così “disumani”? Che uso sta facendo della lingua il nostro attuale Governo?
Sta facendo quello che è, un Governo destrorso reazionario. Il più grande successo del populismo è di convincere una nazione di essere circondata da nemici, interni o esterni. È il modo più semplice e becero di cementare una comunità, di creare coesione all’interno di un in-group, quello di dire è colpa degli altri. Da questo punto di vista il libro di Vannacci è un capolavoro. Perché, dall’inizio alla fine, è un libro apologetico nei confronti dell’in-group, cioè tu – maschio, bianco, cristiano, cattolico, eterocisnormativo, senza disabilità, di una certa età – non hai colpe. È tutta colpa dei neri, dei gay, dei giovani ecologisti, dei migranti che arrivano e ci rubano il lavoro, delle donne che non stanno più in cucina, è colpa degli altri. Questo crea coesione all’interno di quel gruppo, ma è anche il modo migliore per non fare assolutamente nulla. Il populismo funziona perché ti toglie l’accollo di dover fare qualcosa per la società, perché tanto è colpa degli altri…
Tornando al linguaggio del populismo, usare termini come “animali non umani” deve implicare che gli animali non abbiano diritti, non abbiano dignità… Dare importanza alla tematica antispecista nella intersezionalità delle lotte per i diritti, può essere una delle risposte?
Immagino di sì, ma si tratta di scalzare una cultura che ha sempre considerato l’animale umano la sommità della piramide biologica, titolato a cibarsi di tutti gli altri o a vedere tutti gli altri come i suoi schiavi. Ci sono millenni di tradizione dietro, a partire dai nostri testi sacri.
Pensando al futuro, l’educazione digitale dovrebbe essere uno strumento importante. Spesso però si ha la sensazione che ci si limiti a dare strumenti per difendersi dall’odio online, dal cyberbullismo, dalla pedopornografia, ci si concentri cioè sul fattore di rischio, più che proporre modalità positive di abitare la rete. Cosa possiamo fare per rendere le persone più consapevoli e critiche nei confronti della propaganda? Come aiutiamo soprattutto i più giovani a muoversi online occupando lo spazio in modo responsabile e positivo?
Come per tante altre cose, il lavoro lo fanno i singoli, le associazioni private, spesso adottando una prospettiva non apocalittica, mentre a livello istituzionale si percorre la strada della tecnica dello struzzo (anche se non è vero che lo struzzo nasconde la testa sotto la sabbia) magari vietando il cellulare in classe, cosa che non serve assolutamente a nulla, perché se la formazione all’uso consapevole dei dispositivi non si fa in aula, dove la si deve fare? In famiglia? Dove non è detto che i genitori abbiano gli strumenti sistemici per insegnare ai loro figli a usare bene gli strumenti digitali… Nella mia attività sull’educazione digitale, da 10 anni vado dicendo che bisogna fare un’educazione all’uso del mezzo e non solo un’educazione di difesa. E, invece, nelle scuole vincono i progetti realizzati dalla polizia postale, il cui mantra è l’attenzione ai pericoli: è come se facessimo scuola guida preparandoci all’incidente con un’autocisterna in fiamme sull’autostrada senza insegnare a guidare. Iniziamo a dire che cyberbulli e hater non sono gli abitanti di un paese lontano, che noi dobbiamo ostracizzare dalla nostra società, ma siamo noi che diventiamo bulli in certe occasioni, senza neanche rendercene conto, riconoscendo che la nostra società è intrisa di questi fenomeni. È un problema grosso e, negli anni in cui l’ho monitorato, non si sono fatti grandi passi avanti. Si continua a raccontare la storia delle vittime uccise dal cyberbullismo senza chiedersi come mai questi fenomeni non richiedono l’esistenza di un Franti, ma sono perfettamente comuni anche tra persone che stanno bene.
Stavo pensando alla definizione di onlife, che mette in discussione l’immaginario confine, che tra i più giovani mi sembra inesistente, tra la rappresentazione del mondo online e la vita nel modo materiale…
Sì, quella definizione è assolutamente pertinente: non ha nessun senso ragionare sul digitale come un mondo separato dal mondo reale. Noi viviamo in stati di continuità tra offline e online e tutto quello che c’è nel mezzo e la risposta a una situazione di tale complessità non può che essere a sua volta complessa. Non è certo evitare il cellulare in classe, ancorandosi all’idea di reale vs digitale, reale vs falso.
Ultima domanda. Cosa puoi consigliare a chi vuole approfondire il tema del linguaggio d’odio e dell’abitare la rete in modo positivo?
Faccio autopromozione: l’anno scorso ho scritto L’antidoto: 15 comportamenti che avvelenano la nostra vita in rete e come evitarli (Longanesi) che si inserisce in un filone di studi sull’abitare civilmente la rete ed è un testo concepito proprio come una specie manuale di istruzioni.
Una versione più ampia dell’intervista è stata pubblicata nel sito della Fondazione Gariwo
