This study examines the presence of gender bias in neural machine translation (NMT) systems, with a particular focus on the impact of automatic subtitle generation in Disney animated films. The objective is to assess whether machine translation faithfully preserves the original message of these films or, conversely, alters the representation of characters by reinforcing gender stereotypes. The research is structured into three main sections. The first chapter traces the evolution of machine translation, highlighting the transition from rule-based to neural models and illustrating how gender bias can be embedded and amplified in training data. The second chapter explores audiovisual translation (AVT), with a focus on the integration of artificial intelligence in subtitling and its implications for translation accuracy. The third chapter presents a case study on Disney animated films, comparing the official subtitles, produced by professional translators and available on Disney+, with those automatically generated by YouTube’s subtitling system. Since the latter relies on Google’s NMT technology, the analysis was conducted directly using this tool to evaluate its reliability and translation tendencies. The comparative analysis of selected dialogues reveals a systematic tendency in NMT systems to assign gender attributes to characters based on stereotypical assumptions rather than linguistic necessity. Despite technological advancements, these findings demonstrate that NMT systems continue to reflect the social biases embedded in training data. The study’s conclusions emphasize the need for more effective strategies to mitigate gender bias in machine translation, through the development of more representative datasets and increased human intervention in automated subtitling. Ensuring gender-neutral translation is not merely a matter of linguistic accuracy but represents a crucial step toward fostering inclusive and equitable media representation in an increasingly multilingual and globalized context.
Questo studio esamina la presenza di bias di genere nei sistemi di traduzione automatica neurale (NMT), con particolare attenzione all'impatto della generazione automatica di sottotitoli nei film d'animazione Disney. L'obiettivo è valutare se la traduzione automatica preservi fedelmente il messaggio originale di questi film o, al contrario, alteri la rappresentazione dei personaggi rafforzando gli stereotipi di genere. La ricerca è strutturata in tre sezioni principali. Il primo capitolo ripercorre l'evoluzione della traduzione automatica, evidenziando il passaggio da modelli basati su regole a modelli neurali e illustrando come il bias di genere possa essere incorporato e amplificato nei dati di addestramento. Il secondo capitolo esplora la traduzione audiovisiva (AVT), con un focus sull'integrazione dell'intelligenza artificiale nei sottotitoli e le sue implicazioni per l'accuratezza della traduzione. Il terzo capitolo presenta uno studio di caso sui film d'animazione Disney, confrontando i sottotitoli ufficiali, prodotti da traduttori professionisti e disponibili su Disney+, con quelli generati automaticamente dal sistema di sottotitolazione di YouTube. Poiché quest'ultimo si basa sulla tecnologia NMT di Google, l'analisi è stata condotta direttamente utilizzando questo strumento per valutarne l'affidabilità e le tendenze traduttive. L'analisi comparativa dei dialoghi selezionati rivela una tendenza sistematica nei sistemi NMT ad attribuire caratteristiche di genere ai personaggi sulla base di assunzioni stereotipate piuttosto che di necessità linguistica. Nonostante i progressi tecnologici, questi risultati dimostrano che i sistemi NMT continuano a riflettere i bias sociali incorporati nei dati di addestramento. Le conclusioni dello studio sottolineano la necessità di strategie più efficaci per mitigare il bias di genere nella traduzione automatica, attraverso lo sviluppo di dataset più rappresentativi e un intervento umano maggiore nei sottotitoli automatizzati. Garantire una traduzione neutra rispetto al genere non è semplicemente una questione di accuratezza linguistica, ma rappresenta un passo cruciale verso la promozione di una rappresentazione mediatica inclusiva ed equa in un contesto sempre più multilingue e globalizzato.
Gender Bias in Machine Translation and Neural Systems: Analysis of Automatic Subtitles of Disney Animated Movies
SANTONE, ALESSIA
2023/2024
Abstract
Questo studio esamina la presenza di bias di genere nei sistemi di traduzione automatica neurale (NMT), con particolare attenzione all'impatto della generazione automatica di sottotitoli nei film d'animazione Disney. L'obiettivo è valutare se la traduzione automatica preservi fedelmente il messaggio originale di questi film o, al contrario, alteri la rappresentazione dei personaggi rafforzando gli stereotipi di genere. La ricerca è strutturata in tre sezioni principali. Il primo capitolo ripercorre l'evoluzione della traduzione automatica, evidenziando il passaggio da modelli basati su regole a modelli neurali e illustrando come il bias di genere possa essere incorporato e amplificato nei dati di addestramento. Il secondo capitolo esplora la traduzione audiovisiva (AVT), con un focus sull'integrazione dell'intelligenza artificiale nei sottotitoli e le sue implicazioni per l'accuratezza della traduzione. Il terzo capitolo presenta uno studio di caso sui film d'animazione Disney, confrontando i sottotitoli ufficiali, prodotti da traduttori professionisti e disponibili su Disney+, con quelli generati automaticamente dal sistema di sottotitolazione di YouTube. Poiché quest'ultimo si basa sulla tecnologia NMT di Google, l'analisi è stata condotta direttamente utilizzando questo strumento per valutarne l'affidabilità e le tendenze traduttive. L'analisi comparativa dei dialoghi selezionati rivela una tendenza sistematica nei sistemi NMT ad attribuire caratteristiche di genere ai personaggi sulla base di assunzioni stereotipate piuttosto che di necessità linguistica. Nonostante i progressi tecnologici, questi risultati dimostrano che i sistemi NMT continuano a riflettere i bias sociali incorporati nei dati di addestramento. Le conclusioni dello studio sottolineano la necessità di strategie più efficaci per mitigare il bias di genere nella traduzione automatica, attraverso lo sviluppo di dataset più rappresentativi e un intervento umano maggiore nei sottotitoli automatizzati. Garantire una traduzione neutra rispetto al genere non è semplicemente una questione di accuratezza linguistica, ma rappresenta un passo cruciale verso la promozione di una rappresentazione mediatica inclusiva ed equa in un contesto sempre più multilingue e globalizzato.File | Dimensione | Formato | |
---|---|---|---|
Tesi_Santone_Alessia.pdf
non disponibili
Dimensione
2.14 MB
Formato
Adobe PDF
|
2.14 MB | Adobe PDF |
I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/20.500.14240/164707