Usare i social media al meglio delle loro potenzialità è possibile senza necessariamente disturbare le visioni utopiche della rete, così come si può disinnescare la violenza con cui molti interagiscono online prevalentemente per ignoranza degli effetti e delle implicazioni della comunicazione digitale.
Serve una strategia. Esaminiamo il fenomeno per capire come gestirlo e non esserne sopraffatti.
Le caratteristiche che amplificano l’hate speech
Gli ambienti online e più degli altri i social network possiedono effettivamente, dal punto di vista psicologico, caratteristiche che non solo incoraggiano il comportamento aggressivo ma amplificano e prolungano il suo impatto[1].
Prima di tutte la distanza fisica, che ha un potere disinibente. I famosi leoni da tastiera riescono a mostrarsi forti e irrispettosi soprattutto perché hanno dinanzi a sé uno schermo e questo permette di fargli acquisire un comportamento differente da quello che si avrebbe in presenza, decisamente più audace ed anche eccessivamente disinvolto, per il fatto che la vittima non è in grado di rispondere con un’azione fisica
Un altro aspetto è l’amplificazione assieme al carattere itinerante (itineracy). Un post offensivo sui social network viene visualizzato da un pubblico potenzialmente immenso, può essere condiviso e commentato raggiungendo anche milioni di utenti, ottenendo una amplificazione virale delle dimensioni dell’audience. L’intenzione esplicita di diffondere fake news può avvalersi di questa caratteristica, utilizzando l’hate speech per farsi strada nella rete di contatti e dare risonanza alla questione, così da associare la quantità di conversazioni associate alla notizia una sua presunta credibilità.
Il fenomeno del linguaggio d’odio è la maggior parte delle volte riconducibile ad una scarsa alfabetizzazione digitale, il che si traduce nella inconsapevolezza rispetto alle implicazioni del proprio agire online.
Non si tiene a sufficienza in considerazione che quanto viene scritto sui social, per quanto velocemente e d’istinto, resta in modo permanente e gli interlocutori lo hanno lì nero su bianco potendo rileggerlo e costruendosi in base a questo un’opinione di noi. La permanenza è una caratteristica propria degli strumenti online.
Questo ha un peso specifico soprattutto sulle vittime che possono costantemente rivivere l’episodio, che a volte può tornare dopo tempo per l’andamento caratteristico della rete. Questo aumenta il carico emotivo della violenza e la amplifica.
Infine, ma non meno importante l’anonimato, sia che si tratti del vero e proprio uso di nomi finti e identità alternative, sia inteso come la voce del singolo che si disperde nel mare magnum di contatti, per cui la persona scrivendo seppur con nome e cognome reali perde la sua identità individuale per beneficiare della identità sociale che prevale nelle dinamiche di gruppo online.
Ciò che noi scriviamo nella nostra bolla, con l’appoggio probabile dei nostri contatti, può essere decontestualizzato rispetto al mondo dell’interlocutore ed alla sua sensibilità: non si valuta a sufficienza l’impatto delle proprie parole sul prossimo che è distante non solo fisicamente ma anche nella nostra cognizione. Al contrario, per quanto mediate dallo schermo, le nostre parole possono essere dannose e generare reazioni negative.
Le categorie dei discorsi d’odio
Una recente ricerca di DataMediaHub e KPI hanno analizzato le conversazioni su Twitter in un periodo definito tra aprile e giugno, con l’obiettivo di esaminare sette categorie di discorsi d’odio: generici, sessismo, omofobia, razzismo, antisemitismo, discriminazione territoriale, ideologie politiche.
Sono stati identificati 679 mila tweet e 263 mila condivisioni, da parte di 148 mila utenti arrivando a quantificare la diffusione dell’hate speech nel nostro paese: sentimenti di disapprovazione sono presenti nel 44,1% dei casi, seguiti da quelli di rabbia che ricorrono il 30% delle volte. I protagonisti dei tweet violenti realizzati sono per lo più uomini tra i 25 ed i 44 anni, che utilizzano i propri insulti in discussioni politiche, ed anche se in misura minore in conversazioni in cui il pregiudizio tocca sessismo, omofobia, e razzismo. In totale parliamo del 3.7%, il che ci aiuta a ridimensionare il peso dell’aggressività nel panorama comunicativo social italiano ed osservare il fenomeno da un altro punto di vista rispetto a quello diffuso di un’emergenza dovuta al mezzo.[2]
Per quanto non si possano generalizzare i risultati a tutti i social network e la questione della comunicazione d’odio debba ricevere la massima attenzione dagli addetti ai lavori, siamo anche confortati da questi dati che ci offrono l’occasione di riflettere più sui processi che spingono ad una conversazione sgradevole che sul peso specifico degli strumenti tecnologici.
Come gestire la violenza verbale online
Una delle principali raccomandazioni che ci offre Wallace[3] per gestire la violenza verbale online è “non dare da mangiare ai troll”. Questo implica l’evitare di alimentare le conversazioni, al fine di non gratificare chi si comporta in modo ostile. Dare attenzione, a maggior ragione se argomentando la questione, è di per sé un feedback e mostra al troll di aver colpito nel segno.
La replica ad un commento aggressivo, in modo critico o negativo diventa un rinforzo a quel comportamento sgradevole.
Oltre al rispondere, una reazione di chi viene colpito da un troll è quella di cancellare o bannare la persona in questione. Sembrerà controintuitivo, ma questo non è un comportamento efficace.
Cancellare dalla lista degli amici per quanto può sembrare la soluzione più definitiva è in realtà un rinforzo, perché genera un impatto emotivo.
Il costo marginale di lasciare un contatto sui social è esiguo, mentre cancellarlo richiede la valutazione delle possibili conseguenze, come aumentare la sua ira e la sua voglia di coinvolgersi in qualunque modo nelle sue comunicazioni online, cominciando a denigrarci o offendere pubblicamente sui suoi canali nella speranza che il messaggio ci raggiunga.
Proprio per questa ragione gli sviluppatori di piattaforme come Facebook hanno previsto soluzioni intermedie al fine di evitare il rinforzo, come “non seguire più” o bloccare selettivamente le visualizzazioni dei post.
Dobbiamo prendere atto che gli schemi comportamentali che vengono ricompensati sono destinati a ripetersi mentre quelli che vengono ignorati hanno problemi di estinguersi.
Le strategia d’azione contro l’hate speech
Volendo individuare delle strategie concrete per la riduzione del conflitto, potremmo mettere in atto quattro azioni molto semplici, ma efficaci.
Uscire dalla comfort zone e entrare in connessione con chi la pensa diversamente
La tendenza alla polarizzazione propria dei gruppi online è particolarmente alimentata dalla comunicazione social: ci disabitua al confronto con chi la pensa diversamente. Selezionando i propri contatti ed i propri gruppi, le interazioni reali con persone che hanno opinioni diverse sono sempre meno frequenti il che non fa altro che alimentare la lontananza e a radicalizzare la distanza.
A tal fine sembra plausibile estendere alla gestione dell’aggressività online le implicazioni dell’Ipotesi del Contatto di Allport [4], secondo cui un modo per ridurre il pregiudizio è riscontrabile nell’incontro con chi è diverso. Educarsi al confronto, allenando la nostra capacità emotiva e cognitiva ad interagire genera la propensione a stabilire contatti meno pregiudizievoli, e non cadere nella facile semplificazione di giudicare come negativo tutto ciò che è diverso.
Perché questo accada devono essere sono soddisfatte alcune condizioni che appaiono congeniali alle dinamiche della rete: anzitutto è opportuno che siano condivise delle norme sociali che promuovano e sostengano la tolleranza. In questo senso potrebbe emergere la necessità di stabilire delle regole di comportamento condivise e spingere verso la promozione a livello più esteso di una educazione civica alla comunicazione digitale. Il contatto, inoltre, sarà più proficuo a fronte di un’omogeneità di status, cosa che è facilmente riscontrabile in rete, dove la comunicazione è tendenzialmente simmetrica (anche troppo) che favorisce una relazione informale, che può arrivare a dinamiche perfino amichevoli.
Al contrario cercare una strada negoziale, dei punti in comune e mantenere toni garbati e costruttivi riduce il conflitto.[5]
Cercare le cose che abbiamo in comune
Secondo il modello della decategorizzazione di Brewer & Miller[6] è possibile limitare il pregiudizio – e l’aggressività ad esso correlata – lavorando sulla riduzione dell’importanza delle categorie. In questo modo diviene possibile andare a soffermarsi sulle differenze individuali piuttosto che su ciò che accomuna i membri dell’outgroup, facendo sì che i propri interlocutori vengano considerati come persone, con un proprio vissuto e proprie peculiarità, e non etichettati e trattati attraverso gli stereotipi.
Alla luce di questo modello è possibile individuare il secondo step per gestire l’aggressività ed il conflitto online è proprio nel trovare uno spazio di confronto, modificando la gestalt che alimenta la situazione negativa. Di base, il bisogno fondamentale di sentirsi sicuri è condiviso da tutte le persone,[7] per cui diventa un punto di partenza costruttivo rinunciare al proprio personale pregiudizio.
Comunicare
Può sembrare banale, giacché l’idea diffusa è che sui social si vada per comunicare, eppure la maggior parte delle volte, si tratta di monologhi o mere informazioni, neppure attendibili. La comunicazione è altra cosa. Per definizione è la “messa in comune”, presume l’ascolto attivo ed il feedback. quanto realmente comunicano online? Abbandonando temporaneamente la propria posizione ed il desiderio di affermarla si riesce a creare la condizione per ascoltare l’interlocutore. Diviene necessario aver messo in atto le prime due misure ed essere in grado di riflettere sui propri pregiudizi in modo da poter ascoltare realmente, senza giudizio. Chiaramente avere empatia non significa necessariamente conformarsi, ma solo porsi in ascolto attivo e replicare, per quanto dissentendo, sempre in modo civile e garbato.
Concedersi il tempo per controllare le fonti
Ultimo ma non meno importante è replicare solo e quando si è realmente informati. Questo forse è il lavoro più difficile, perché la velocità dello strumento è di per sé un driver di comportamenti cognitivi di tipo euristico e ci guida a rispondere, anche solo con un cenno, un like o una parola immediatamente, senza porsi troppo il problema dell’attendibilità o validità del contenuto. Il dilagare delle fake news, di fatti distorti, opinioni non supportate e bugie diffuse nei gruppi alimenta l’hate speech, perchè spinge su una dimensione profondamente emotiva le conversazioni digitali correlate.
Risulta strategico, quindi, avere un’attenzione consapevole, valutando criticamente ciò che viene presentato, considerando la fonte e verificando i fatti, anche se l’informazione gira nella nostra cerchia di fidati contatti. Perchè è proprio il pregiudizio di fiducia e credibilità che associamo alle conversazioni informali che ci indice a divenire inconsapevoli nodi della rete distorta delle notizie false .[8]
Queste sono solo alcune delle regole di buon senso che dovrebbero essere alla base di un corretto utilizzo delle piattaforme social.
_________________________________________________________________________________________
- Report dell’UNESCO del 2015 intitolato Countering Online Hate Speech: https://en.unesco.org/news/unesco-launches-countering-online-hate-speech-publication ↑
- Rapporto sull’hate speech: http://www.datamediahub.it/2020/06/22/rapporto-sullhate-speech-in-italia/#axzz6Q6onEubY data ultima consultazione 11/07/20 ↑
- Wallace, La psicologia di internet, Raffaello Cortina ed. ↑
- Allport G.W. (1973), La natura del pregiudizio, Firenze, La Nuova Italia, ed. or. 1954. ↑
- Lilliana Mason, A Cross-Cutting Calm: How Social Sorting Drives Affective Polarization, Public Opinion Quarterly, Volume 80, Issue S1, 2016, pp 351–377, https://doi.org/10.1093/poq/nfw001 ↑
- Brewer & Miller (1984) ↑
- Vance F.Mitchell Pravin Moudgill, Measurement of maslow’s need hierarchy, University of British Columbia USA, 2004. https://doi.org/10.1016/0030-5073(76)90020-9 ↑
- ↑