Nowadays, social media platforms allow us to connect with people from all over the world, breaking down barriers of space and time and offering numerous advantages. However, there is also a darker side of social media: some users use it to spread messages of hate and violence. This type of content, amplified and accelerated compared to real life, can create a dangerous and unsafe environment within the platforms themselves. To address this phenomenon, two main solutions have been proposed, which will be discussed in this thesis. The first is the intervention of institutions and providers of platforms, through the creation of laws aimed at combating online hate speech, and by moderating hate content, and blocking profiles of those who spread it. In particular, we focused on the European Union’s Code of Conduct on hate speech and some articles of the Digital Services Act that require platforms to produce annual reports on content moderation. Additionally, we examined Facebook’s Community Standards and verified how these standards are actually applied to a sample of data. Then, we explored the role of artificial intelligence in content moderation, evaluating its impact and effectiveness. The second solution is represented by counter-narratives, which are targeted responses to counter hate speech, encouraging those who post hateful comments to reflect on their actions. An example is Amnesty International's task force to combat online hate speech, where activists have committed to creating counter-narratives under public posts on Facebook. Despite the considerable efforts of activists, the volume of online hate continues to far exceed the counter-narratives produced. It has been concluded that activists could benefit from tools that assist in the creation or even automatic production of counter-narratives, reducing response times and increasing the number of interventions. With this work, we aimed to contribute to research in this field. The main objective of this project, developed during my internship at Aequa-tech, was the creation of a corpus of counter-narratives in Italian on Facebook, called AmnestyCounterHS, based on comments written by Amnesty International activists during the task force. The dataset includes both hateful comments and counter-narratives, collected under public posts related to current news. After studying the existing literature, developed an annotation scheme and annotated data to allow automatic mechanisms to distinguish between hate speech and counter-narratives. Subsequently, we conducted various types of analyses, such as sentiment analysis, and also statistical analysis to identify the most used counter-narrative strategies based on different themes, such as women, migrants, and LGBTQIA+. Finally, a comparative analysis between the AmnestyCounterHS corpus and two existing datasets on counter-narratives in Italian, Counter-TWIT and Multilingual CONAN, was conducted. The aim was to understand how the environment of data collection and discussion topics influence the nature of counter-narratives. The results highlight the predominance of negative sentiments, the different presence of stereotypes, and strategic differences in counter-narratives across the various datasets. In controlled environment the prevalent strategy is "informative" while in spontaneous context there is the predominance of the hostile label.
Al giorno d’oggi, le piattaforme social ci permettono di connetterci con persone di tutto il mondo, abbattendo le barriere di spazio e tempo e offrendo numerosi vantaggi. Tuttavia, esiste anche un lato oscuro dei social: alcuni utenti li utilizzano per diffondere messaggi d’odio e violenza. Questo tipo di contenuto, amplificato e accelerato rispetto alla vita reale, può creare un ambiente pericoloso e insicuro all'interno delle piattaforme stesse. Per affrontare questo fenomeno sono state proposte principalmente due soluzioni, di cui sarà discusso nella presente tesi. La prima è l'intervento delle istituzioni e dei fornitori delle piattaforme, attraverso la creazione di leggi mirate a combattere l'odio online, moderando i contenuti e bloccando i profili di chi li diffonde. In particolare, il focus sarà sul Codice di condotta dell'Unione Europea per l'hate speech e su alcuni articoli del Digital Services Act che richiedono alle piattaforme di produrre report annuali sulla moderazione dei contenuti. Inoltre, si è voluto esaminare gli Standard della Community di Facebook e verificare su un campione di dati come questi standard vengano effettivamente applicati. Inoltre è stato esplorato il ruolo dell'intelligenza artificiale nella moderazione dei contenuti, valutandone impatto ed efficacia. Bisogna inoltre tenere conto che questi interventi devono essere bilanciati attentamente per non limitare la libertà di espressione, un diritto fondamentale che va tutelato. La seconda soluzione è rappresentata dalle contronarrative, ovvero risposte mirate a contrastare i discorsi d’odio, incoraggiando chi pubblica commenti di odio a riflettere sulle proprie azioni. Un esempio è la task force di Amnesty International per combattere l’hate speech online, in cui attivisti si sono impegnati a creare contronarrative sotto i post pubblici su Facebook. Nonostante il notevole impegno degli attivisti, il volume di odio online continua a superare di gran lunga le contronarrative prodotte. Si è quindi concluso che gli attivisti potrebbero beneficiare di strumenti in grado di assisterli nella creazione o addirittura nella produzione automatica di contronarrative, riducendo i tempi di risposta e aumentando il numero di interventi. Con questo lavoro, ho voluto contribuire alla ricerca in questo campo. L’obiettivo principale della presente tesi, sviluppato durante il tirocinio presso Aequa-Tech, è stato la creazione di un corpus di contronarrative in italiano su Facebook, chiamato AmnestyCounterHS, basato sui commenti scritti dagli attivisti di Amnesty International durante la task force. Il corpus include sia commenti contenenti discorsi d’odio che contronarrative, raccolti sotto post pubblici relativi a notizie di attualità. Nel corpus sono stati inclusi sia commenti diretti ai post che interazioni tra diversi utenti. Dopo aver studiato la letteratura esistente, è stato sviluppato uno schema di annotazione e annotato i dati, al fine di permettere a meccanismi automatici di distinguere tra discorsi d’odio e contronarrative. Successivamente, sono state condotte diversi tipi di analisi, come quella del sentiment, e analisi statistiche per identificare le strategie contronarrative più utilizzate in base ai vari temi trattati, come donne, migranti e LGBTQIA+. Infine, sempre durante il tirocinio con Aequa-tech, si è condotta un'analisi comparativa tra due dataset esistenti sulle contronarrative in italiano: Counter-TWIT e Multilingual CONAN. Lo scopo era capire come l’ambiente di raccolta dei dati e i temi di discussione influenzino la natura delle contronarrative. I risultati evidenziano la predominanza di sentimenti negativi, la diversa presenza di stereotipi e le differenze strategiche nelle contronarrative nei vari dataset. Per esempio, in ambienti più controllati le contronarrative più utilizzate sono quelle di tipo informativo, mentre in ambienti con interazioni più spontanee prevale un atteggiamento più ostile.
Contrastare il discorso d'odio online: Prospettive legali e sviluppo di un corpus Facebook italiano di contro-narrative della Task Force di Amnesty International
TONINI, VITTORIA
2023/2024
Abstract
Al giorno d’oggi, le piattaforme social ci permettono di connetterci con persone di tutto il mondo, abbattendo le barriere di spazio e tempo e offrendo numerosi vantaggi. Tuttavia, esiste anche un lato oscuro dei social: alcuni utenti li utilizzano per diffondere messaggi d’odio e violenza. Questo tipo di contenuto, amplificato e accelerato rispetto alla vita reale, può creare un ambiente pericoloso e insicuro all'interno delle piattaforme stesse. Per affrontare questo fenomeno sono state proposte principalmente due soluzioni, di cui sarà discusso nella presente tesi. La prima è l'intervento delle istituzioni e dei fornitori delle piattaforme, attraverso la creazione di leggi mirate a combattere l'odio online, moderando i contenuti e bloccando i profili di chi li diffonde. In particolare, il focus sarà sul Codice di condotta dell'Unione Europea per l'hate speech e su alcuni articoli del Digital Services Act che richiedono alle piattaforme di produrre report annuali sulla moderazione dei contenuti. Inoltre, si è voluto esaminare gli Standard della Community di Facebook e verificare su un campione di dati come questi standard vengano effettivamente applicati. Inoltre è stato esplorato il ruolo dell'intelligenza artificiale nella moderazione dei contenuti, valutandone impatto ed efficacia. Bisogna inoltre tenere conto che questi interventi devono essere bilanciati attentamente per non limitare la libertà di espressione, un diritto fondamentale che va tutelato. La seconda soluzione è rappresentata dalle contronarrative, ovvero risposte mirate a contrastare i discorsi d’odio, incoraggiando chi pubblica commenti di odio a riflettere sulle proprie azioni. Un esempio è la task force di Amnesty International per combattere l’hate speech online, in cui attivisti si sono impegnati a creare contronarrative sotto i post pubblici su Facebook. Nonostante il notevole impegno degli attivisti, il volume di odio online continua a superare di gran lunga le contronarrative prodotte. Si è quindi concluso che gli attivisti potrebbero beneficiare di strumenti in grado di assisterli nella creazione o addirittura nella produzione automatica di contronarrative, riducendo i tempi di risposta e aumentando il numero di interventi. Con questo lavoro, ho voluto contribuire alla ricerca in questo campo. L’obiettivo principale della presente tesi, sviluppato durante il tirocinio presso Aequa-Tech, è stato la creazione di un corpus di contronarrative in italiano su Facebook, chiamato AmnestyCounterHS, basato sui commenti scritti dagli attivisti di Amnesty International durante la task force. Il corpus include sia commenti contenenti discorsi d’odio che contronarrative, raccolti sotto post pubblici relativi a notizie di attualità. Nel corpus sono stati inclusi sia commenti diretti ai post che interazioni tra diversi utenti. Dopo aver studiato la letteratura esistente, è stato sviluppato uno schema di annotazione e annotato i dati, al fine di permettere a meccanismi automatici di distinguere tra discorsi d’odio e contronarrative. Successivamente, sono state condotte diversi tipi di analisi, come quella del sentiment, e analisi statistiche per identificare le strategie contronarrative più utilizzate in base ai vari temi trattati, come donne, migranti e LGBTQIA+. Infine, sempre durante il tirocinio con Aequa-tech, si è condotta un'analisi comparativa tra due dataset esistenti sulle contronarrative in italiano: Counter-TWIT e Multilingual CONAN. Lo scopo era capire come l’ambiente di raccolta dei dati e i temi di discussione influenzino la natura delle contronarrative. I risultati evidenziano la predominanza di sentimenti negativi, la diversa presenza di stereotipi e le differenze strategiche nelle contronarrative nei vari dataset. Per esempio, in ambienti più controllati le contronarrative più utilizzate sono quelle di tipo informativo, mentre in ambienti con interazioni più spontanee prevale un atteggiamento più ostile.File | Dimensione | Formato | |
---|---|---|---|
tesi_Tonini.pdf
non disponibili
Dimensione
3.57 MB
Formato
Adobe PDF
|
3.57 MB | Adobe PDF |
I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/20.500.14240/7510