Gli utenti dei social media che chiamiamo ‘haters’ o ‘leoni da tastiera’ non sarebbero in realtà una schiera di ‘odiatori seriali’ dediti all’offesa, ma utenti che a volte eccedono utilizzando un linguaggio violento, offensivo o inappropriato.

L’indicazione arriva dai risultati preliminari di una ricerca su 1,2 milioni di commenti su YouTube, in Italia, in risposta a contenuti riguardanti la pandemia da Covid-19.

L’analisi è parte del progetto europeo “Innovative Monitoring Systems and Prevention Policies of Online Hate Speech” (IMSyPP) che vede coinvolti per l’Italia l’Università Ca’ Foscari Venezia AGCOM, l’Autorità per le garanzie nelle comunicazioni.

“Stiamo lavorato a sistemi di identificazione automatica di linguaggio d’odio sui social media, tenendo in considerazione diverse tipologie di linguaggio, da quello violento, a quello offensivo o inappropriato – spiega Fabiana Zollo, ricercatrice a Ca’ Foscari – Le analisi sono in corso e ci aiuteranno a delineare trend e caratteristiche del linguaggio d’odio, e di fare luce sul rapporto tra disinformazione e linguaggio d’odio, con lo scopo finale di riuscire a produrre raccomandazioni data-driven per i regolatori europei”.

Il progetto punta a realizzare un sistema multilinguistico di prevenzione e rilevamento del linguaggio d’odio sui servizi di media e sulle piattaforme online. Al progetto partecipano prestigiose istituzioni di ricerca di altri stati membri dell’Unione europea (Slovenia, Cipro e Belgio), attive nel settore della ricerca su temi quali razzismo, xenofobia e altre forme di intolleranza.

Il progetto si fonda sull’impiego di strumenti e metodi di ‘intelligenza artificiale, machine learning e data science, al fine di identificare i fattori determinanti, le raccomandazioni più efficaci sul piano delle narrazioni, e le più opportune proposte di policy in un’ottica europea.

In particolare, l’Università Ca’ Foscari Venezia, con i ricercatori Fabiana Zollo e Matteo Cinelli, è leader della linea di ricerca riguardante lo studio delle dinamiche di diffusione del linguaggio d’odio e della disinformazione online. AGCOM, a sua volta, è responsabile della valutazione e divulgazione dei risultati di ricerca, anche nella prospettiva di raccomandazioni di policy per la regolazione di questi fenomeni in ambito nazionale ed europeo.

Il progetto, iniziato a marzo 2020 e della durata di 24 mesi, è quasi al giro di boa. Nel primo anno di attività la collaborazione tra i partner di ricerca ha riguardato soprattutto la creazione di dataset per l’analisi del linguaggio d’odio in rapporto a specifiche narrazioni e strategie di disinformazione.

Nell’ambito delle tematiche del progetto, AGCOM ha contribuito orientando parte delle analisi svolte nell’ambito della terza edizione dell’Osservatorio sul giornalismo ai fenomeni più rilevanti per i temi del progetto IMSyPP. Il Rapporto pubblicato a novembre 2020, disponibile anche in inglese, dedica ampio spazio alle problematiche connesse alla disinformazione online riscontrate dai professionisti del settore nell’ultimo anno.

Dal report pubblicato emerge, tra l’altro, che il 73% dei giornalisti italiani ha riscontrato casi di disinformazione nel periodo della pandemia Covid-19. Ciò conferma la necessità di sensibilizzare tutti i diversi attori del sistema dell’informazione e di realizzare adeguati strumenti per il monitoraggio di tali fenomeni.

A tale scopo sono stati organizzati seminari di formazione interni all’Autorità, ed è in corso una campagna online che ha lo scopo di sensibilizzare più persone possibile sui temi oggetto di ricerca del progetto IMSyPP. Questa attività ha inoltre dato avvio a una consultazione pubblica finalizzata a raccogliere ulteriori elementi conoscitivi sullo stato dell’informazione e a suggerire concrete proposte di policy. In questo ambito, vengono nuovamente affrontate le tematiche del progetto europeo, in particolare in materia di information pollution, minacce alla professione giornalistica e hate speech.