This thesis lies at the intersection of the Smart City paradigm, biometric facial recognition, and algorithmic bias, focusing on the social and ethical impacts that arise from the use of these technologies in urban contexts. Smart Cities represent an innovative model of urban living, based on the adoption of advanced technologies such as Artificial Intelligence (AI) and Machine Learning, aimed at optimizing and enhancing urban life. However, the improper use of these technologies risks perpetuating or amplifying pre-existing social inequalities, thereby threatening the fundamental rights of citizens. Among the most widespread technologies in Smart Cities, biometric facial recognition allows for the unique identification of individuals through facial characteristics. While offering potential benefits such as improved public safety, traffic management, and access to services, this technology poses significant ethical risks. These include privacy violations and discrimination caused by algorithmic bias. Algorithmic bias occurs when algorithms replicate societal prejudices embedded in their training data, disproportionately penalizing minority groups based on gender, ethnicity, or socioeconomic status. In the case of facial recognition, systematic errors in identifying the faces of racial or gender minorities can exacerbate social inequalities and foster feelings of exclusion and mistrust toward institutions. This research addresses these issues through a comparative analysis of the adoption and regulation of facial recognition technologies in different geographical areas: the European Union, the United States, China, and Italy. Each context reveals distinct approaches, from the strict regulatory framework of the EU with the GDPR and the AI Act to the permissive model in the US and the extensive but controversial use in China for surveillance purposes. In Italy, the debate is particularly relevant due to the growing implementation of these technologies in both public and private settings. A central focus of this thesis is citizens' perception, analyzed through a targeted survey. The empirical section explores the levels of awareness, trust, and acceptance of facial recognition technologies, highlighting how these influence well-being, perceived safety, and personal freedoms. This analysis underscores the importance of balancing technological innovation with transparency, inclusivity, and the protection of fundamental rights. To ensure that Smart Cities are inclusive and equitable, it is essential to develop fair and transparent algorithms while also establishing public policies that promote algorithmic equity, thereby safeguarding the rights of individuals. Only by addressing the ethical and regulatory challenges posed by biometric facial recognition can technological innovation contribute to building fairer and more inclusive cities.

Questa tesi si colloca all’intersezione tra il paradigma delle Smart City, il riconoscimento facciale biometrico e il bias algoritmico, con un focus sugli impatti sociali ed etici che derivano dall’uso di queste tecnologie nei contesti urbani. Le Smart City rappresentano un modello innovativo di città, basato sull’adozione di tecnologie avanzate come l’intelligenza artificiale (AI) e il machine learning, finalizzate a ottimizzare e migliorare la vita urbana. Tuttavia, un utilizzo inadeguato di queste tecnologie rischia di perpetuare o amplificare disuguaglianze sociali preesistenti, minacciando i diritti fondamentali dei cittadini. Tra le tecnologie più diffuse nelle Smart City, il riconoscimento facciale biometrico consente l’identificazione univoca delle persone tramite le caratteristiche del volto. Pur offrendo potenziali vantaggi, come il miglioramento della sicurezza pubblica, la gestione del traffico e l’accesso ai servizi, questa tecnologia pone significativi rischi etici. Tra questi, spiccano le violazioni della privacy e le discriminazioni derivanti dal bias algoritmico. Quest’ultimo si manifesta quando gli algoritmi riproducono pregiudizi presenti nei dati di addestramento, penalizzando in particolare gruppi minoritari per genere, etnia o status socioeconomico. Nel caso del riconoscimento facciale, gli errori sistematici nel riconoscere volti di minoranze razziali o di genere possono rafforzare le disuguaglianze sociali e generare sentimenti di esclusione e sfiducia nei confronti delle istituzioni. La ricerca affronta queste problematiche attraverso un confronto dell’adozione e della regolamentazione delle tecnologie di riconoscimento facciale in diverse aree geografiche: Unione Europea, Stati Uniti, Cina e Italia. Ogni contesto evidenzia approcci differenti, dal forte controllo normativo europeo con il GDPR e l’AI Act, al modello permissivo statunitense, fino all’uso esteso ma controverso in Cina per finalità di sorveglianza. In Italia, il dibattito è particolarmente rilevante per via delle crescenti implementazioni di queste tecnologie in contesti pubblici e privati. Un elemento centrale della tesi è la percezione dei cittadini, analizzata tramite un questionario mirato. La parte empirica esplora i livelli di consapevolezza, fiducia e accettazione delle tecnologie di riconoscimento facciale, mettendo in luce come queste influenzino il benessere, la sicurezza percepita e le libertà personali. Questa analisi sottolinea l'importanza di bilanciare l'innovazione tecnologica con la trasparenza, l’inclusività e la tutela dei diritti fondamentali. Per garantire che le Smart city siano inclusive e giuste è necessario sviluppare algoritmi equi e trasparenti, ma anche creare politiche pubbliche che promuovono l’equità algoritmica, garantendo così la protezione dei diritti delle persone. Solo affrontando le sfide etiche e normative poste dal riconoscimento facciale biometrico è possibile garantire che l’innovazione tecnologica contribuisca a costruire città più giuste e inclusive.

Smart City e riconoscimento facciale: bias algoritmico, rischi etici e percezione pubblica.

DEZI, ANDREA LAURA
2023/2024

Abstract

Questa tesi si colloca all’intersezione tra il paradigma delle Smart City, il riconoscimento facciale biometrico e il bias algoritmico, con un focus sugli impatti sociali ed etici che derivano dall’uso di queste tecnologie nei contesti urbani. Le Smart City rappresentano un modello innovativo di città, basato sull’adozione di tecnologie avanzate come l’intelligenza artificiale (AI) e il machine learning, finalizzate a ottimizzare e migliorare la vita urbana. Tuttavia, un utilizzo inadeguato di queste tecnologie rischia di perpetuare o amplificare disuguaglianze sociali preesistenti, minacciando i diritti fondamentali dei cittadini. Tra le tecnologie più diffuse nelle Smart City, il riconoscimento facciale biometrico consente l’identificazione univoca delle persone tramite le caratteristiche del volto. Pur offrendo potenziali vantaggi, come il miglioramento della sicurezza pubblica, la gestione del traffico e l’accesso ai servizi, questa tecnologia pone significativi rischi etici. Tra questi, spiccano le violazioni della privacy e le discriminazioni derivanti dal bias algoritmico. Quest’ultimo si manifesta quando gli algoritmi riproducono pregiudizi presenti nei dati di addestramento, penalizzando in particolare gruppi minoritari per genere, etnia o status socioeconomico. Nel caso del riconoscimento facciale, gli errori sistematici nel riconoscere volti di minoranze razziali o di genere possono rafforzare le disuguaglianze sociali e generare sentimenti di esclusione e sfiducia nei confronti delle istituzioni. La ricerca affronta queste problematiche attraverso un confronto dell’adozione e della regolamentazione delle tecnologie di riconoscimento facciale in diverse aree geografiche: Unione Europea, Stati Uniti, Cina e Italia. Ogni contesto evidenzia approcci differenti, dal forte controllo normativo europeo con il GDPR e l’AI Act, al modello permissivo statunitense, fino all’uso esteso ma controverso in Cina per finalità di sorveglianza. In Italia, il dibattito è particolarmente rilevante per via delle crescenti implementazioni di queste tecnologie in contesti pubblici e privati. Un elemento centrale della tesi è la percezione dei cittadini, analizzata tramite un questionario mirato. La parte empirica esplora i livelli di consapevolezza, fiducia e accettazione delle tecnologie di riconoscimento facciale, mettendo in luce come queste influenzino il benessere, la sicurezza percepita e le libertà personali. Questa analisi sottolinea l'importanza di bilanciare l'innovazione tecnologica con la trasparenza, l’inclusività e la tutela dei diritti fondamentali. Per garantire che le Smart city siano inclusive e giuste è necessario sviluppare algoritmi equi e trasparenti, ma anche creare politiche pubbliche che promuovono l’equità algoritmica, garantendo così la protezione dei diritti delle persone. Solo affrontando le sfide etiche e normative poste dal riconoscimento facciale biometrico è possibile garantire che l’innovazione tecnologica contribuisca a costruire città più giuste e inclusive.
Smart City and facial recognition: algorithmic bias, ethical risks and public perception.
This thesis lies at the intersection of the Smart City paradigm, biometric facial recognition, and algorithmic bias, focusing on the social and ethical impacts that arise from the use of these technologies in urban contexts. Smart Cities represent an innovative model of urban living, based on the adoption of advanced technologies such as Artificial Intelligence (AI) and Machine Learning, aimed at optimizing and enhancing urban life. However, the improper use of these technologies risks perpetuating or amplifying pre-existing social inequalities, thereby threatening the fundamental rights of citizens. Among the most widespread technologies in Smart Cities, biometric facial recognition allows for the unique identification of individuals through facial characteristics. While offering potential benefits such as improved public safety, traffic management, and access to services, this technology poses significant ethical risks. These include privacy violations and discrimination caused by algorithmic bias. Algorithmic bias occurs when algorithms replicate societal prejudices embedded in their training data, disproportionately penalizing minority groups based on gender, ethnicity, or socioeconomic status. In the case of facial recognition, systematic errors in identifying the faces of racial or gender minorities can exacerbate social inequalities and foster feelings of exclusion and mistrust toward institutions. This research addresses these issues through a comparative analysis of the adoption and regulation of facial recognition technologies in different geographical areas: the European Union, the United States, China, and Italy. Each context reveals distinct approaches, from the strict regulatory framework of the EU with the GDPR and the AI Act to the permissive model in the US and the extensive but controversial use in China for surveillance purposes. In Italy, the debate is particularly relevant due to the growing implementation of these technologies in both public and private settings. A central focus of this thesis is citizens' perception, analyzed through a targeted survey. The empirical section explores the levels of awareness, trust, and acceptance of facial recognition technologies, highlighting how these influence well-being, perceived safety, and personal freedoms. This analysis underscores the importance of balancing technological innovation with transparency, inclusivity, and the protection of fundamental rights. To ensure that Smart Cities are inclusive and equitable, it is essential to develop fair and transparent algorithms while also establishing public policies that promote algorithmic equity, thereby safeguarding the rights of individuals. Only by addressing the ethical and regulatory challenges posed by biometric facial recognition can technological innovation contribute to building fairer and more inclusive cities.
Autorizzo consultazione esterna dell'elaborato
File in questo prodotto:
File Dimensione Formato  
Tesi.pdf

non disponibili

Dimensione 3.44 MB
Formato Adobe PDF
3.44 MB Adobe PDF

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14240/161744