Artificial Intelligence is now a widespread reality in various fields. The rapid development and impact of AI on daily life has led to the need to create a balance between technological innovation and the protection of fundamental rights, safeguarding individual freedoms in the context of unprecedented progress. This thesis analyzes the legal and regulatory dynamics related to the use of AI, with meticulous attention to the tools created to mitigate its risks and ensure its proper use. The first chapter focuses on the provision of March 21, 2024, by the GPDP (Data Protection Authority), paying particular attention to the reasons that led to the decision and the effects it had. The second chapter focuses on the evolution of Artificial Intelligence, examining the approval process and the first regulations on AI. In such a rapidly developing context, it is of fundamental importance to review the legislative choices made so far and identify the potential issues that may arise when regulating a constantly evolving technology. The third chapter examines the importance of the impact assessment of high-risk AI systems on fundamental rights, the FRIA (AI Impact Assessment), an effective tool that helps understand how the associated risks should be addressed. A particular emphasis will be placed on the relationship between DPIA (Data Protection Impact Assessment) and FRIA, highlighting how these two approaches can resolve the issues that may emerge. In conclusion, this thesis provides a detailed summary of the issues related to the use of Artificial Intelligence, focusing on the regulations and tools in place to foster a balance between innovation and the protection of rights. The aim is to address, through a framework of law and technology, all security and protection needs in a reality increasingly influenced by technology.

L’Intelligenza Artificiale è ormai una realtà diffusa in diversi ambiti. Il rapidissimo sviluppo e l’impatto di quest’ultima nella vita quotidiana ha fatto sì che sorgesse la necessità di generare un equilibrio tra innovazione tecnologica e la protezione dei diritti fondamentali tutelando le libertà individuali nell’ottica di un progresso senza precedenti. La seguente tesi analizza le dinamiche giuridiche e normative correlate all’uso dell’AI con meticolosa attenzione agli strumenti creati per mitigarne i rischi e garantirne un buon uso. Il primo capitolo si concentra sul provvedimento del 21 marzo 2024 del GPDP, ponendo una particolare attenzione sulle motivazioni che hanno portato alla decisione e agli effetti che quest’ultimo ha avuto. Il secondo capitolo si focalizza sull’evoluzione dell’Intelligenza Artificiale, approfondendo l’iter di approvazione e la prima regolamentazione dell’AI. In una circostanza del genere in cui lo sviluppo è rapido, è di fondamentale importanza esaminare le scelte legislative prese finora e andare ad individuare le problematiche che potrebbero causarsi per regolamentare una nuova tecnologia in una costante evoluzione. Il terzo capitolo esamina l’importanza della valutazione d’impatto dei sistemi di AI ad alto rischio sui diritti fondamentali, la FRIA, uno strumento efficace che permette di capire come debbano essere affrontati i rischi associati. Un particolare accento sarà posto sulla relazione tra DPIA e FRIA, mettendo in luce come queste due modalità possano risolvere le problematiche che potrebbero emergere. In conclusione, questa tesi propone una dettagliata sintesi delle problematiche associate all’uso dell’Intelligenza Artificiale, soffermandosi sulle normative e gli strumenti in uso per favorire l’equilibrio tra innovazione e protezione dei diritti. L’obbiettivo è quello di far fronte, attraverso un quadro di diritto e tecnologia, a tutte le esigenze di sicurezza e protezione in una realtà sempre più influenzata dalla tecnologia.

AI ACT: Un approccio Risk-based per la Regolamentazione dell'Intelligenza Artificiale

PREZJA, SARA
2023/2024

Abstract

L’Intelligenza Artificiale è ormai una realtà diffusa in diversi ambiti. Il rapidissimo sviluppo e l’impatto di quest’ultima nella vita quotidiana ha fatto sì che sorgesse la necessità di generare un equilibrio tra innovazione tecnologica e la protezione dei diritti fondamentali tutelando le libertà individuali nell’ottica di un progresso senza precedenti. La seguente tesi analizza le dinamiche giuridiche e normative correlate all’uso dell’AI con meticolosa attenzione agli strumenti creati per mitigarne i rischi e garantirne un buon uso. Il primo capitolo si concentra sul provvedimento del 21 marzo 2024 del GPDP, ponendo una particolare attenzione sulle motivazioni che hanno portato alla decisione e agli effetti che quest’ultimo ha avuto. Il secondo capitolo si focalizza sull’evoluzione dell’Intelligenza Artificiale, approfondendo l’iter di approvazione e la prima regolamentazione dell’AI. In una circostanza del genere in cui lo sviluppo è rapido, è di fondamentale importanza esaminare le scelte legislative prese finora e andare ad individuare le problematiche che potrebbero causarsi per regolamentare una nuova tecnologia in una costante evoluzione. Il terzo capitolo esamina l’importanza della valutazione d’impatto dei sistemi di AI ad alto rischio sui diritti fondamentali, la FRIA, uno strumento efficace che permette di capire come debbano essere affrontati i rischi associati. Un particolare accento sarà posto sulla relazione tra DPIA e FRIA, mettendo in luce come queste due modalità possano risolvere le problematiche che potrebbero emergere. In conclusione, questa tesi propone una dettagliata sintesi delle problematiche associate all’uso dell’Intelligenza Artificiale, soffermandosi sulle normative e gli strumenti in uso per favorire l’equilibrio tra innovazione e protezione dei diritti. L’obbiettivo è quello di far fronte, attraverso un quadro di diritto e tecnologia, a tutte le esigenze di sicurezza e protezione in una realtà sempre più influenzata dalla tecnologia.
The AI ACT: a Risk-based Approach to the Regulation of Artificial Intelligence
Artificial Intelligence is now a widespread reality in various fields. The rapid development and impact of AI on daily life has led to the need to create a balance between technological innovation and the protection of fundamental rights, safeguarding individual freedoms in the context of unprecedented progress. This thesis analyzes the legal and regulatory dynamics related to the use of AI, with meticulous attention to the tools created to mitigate its risks and ensure its proper use. The first chapter focuses on the provision of March 21, 2024, by the GPDP (Data Protection Authority), paying particular attention to the reasons that led to the decision and the effects it had. The second chapter focuses on the evolution of Artificial Intelligence, examining the approval process and the first regulations on AI. In such a rapidly developing context, it is of fundamental importance to review the legislative choices made so far and identify the potential issues that may arise when regulating a constantly evolving technology. The third chapter examines the importance of the impact assessment of high-risk AI systems on fundamental rights, the FRIA (AI Impact Assessment), an effective tool that helps understand how the associated risks should be addressed. A particular emphasis will be placed on the relationship between DPIA (Data Protection Impact Assessment) and FRIA, highlighting how these two approaches can resolve the issues that may emerge. In conclusion, this thesis provides a detailed summary of the issues related to the use of Artificial Intelligence, focusing on the regulations and tools in place to foster a balance between innovation and the protection of rights. The aim is to address, through a framework of law and technology, all security and protection needs in a reality increasingly influenced by technology.
Autorizzo consultazione esterna dell'elaborato
File in questo prodotto:
File Dimensione Formato  
SARA PREZJA, TESI.pdf

non disponibili

Dimensione 648.28 kB
Formato Adobe PDF
648.28 kB Adobe PDF

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14240/163080