In recent years, Artificial Intelligence (AI) has taken on a central role in technological, social, and economic development, posing unprecedented challenges to national and supranational legal systems. Among the key initiatives aimed at regulating AI use is the Artificial Intelligence Act (AI Act), an ambitious regulatory project of the European Union. Positioned within the broader context of the EU’s Digital Strategy, the AI Act seeks to establish a uniform regulatory framework to ensure the ethical, human-centered, transparent, and safe development and implementation of AI systems, balancing innovation with the protection of fundamental rights. This work aims to analyze the role and impact of the AI Act within the framework of European administrative law, with particular attention to the regulatory, ethical, and operational implications of AI use in public administration. In the first chapter, the AI Act is framed within the EU’s Digital Strategy to highlight its core objectives: promoting human-centered AI, ensuring transparency, and minimizing risks to citizens. The chapter explores the legal nature of algorithms in the administrative context, the application of the European precautionary principle, and the implementation of the risk-based approach. It concludes by examining concerns regarding the European approach, particularly the risks of technological lag compared to the United States and China, as well as the issue of regulatory obsolescence. The second chapter focuses on high-risk AI systems and their use in public administration, with particular attention to challenges related to human oversight and the principle of final human decision-making, designed to prevent the de-responsibilization of public officials. Key instruments such as Fundamental Rights Impact Assessments and regulatory sandboxes are also examined, aiming to support innovation in a controlled manner that respects citizens' rights. The third chapter addresses transparency and data governance, essential elements for tackling issues stemming from algorithmic opacity (the “black box” phenomenon). It explores the provisions of the AI Act in this area, followed by an examination of perspectives offered by computer science, such as Explainable AI (XAI) and approaches like transparency by design, to ensure greater clarity and trust in the use of AI systems in public administration. In the fourth chapter, attention shifts to Generative Artificial Intelligence (GAI) as a paradigmatic example of General Purpose Models. Following an overview of the operation and unique characteristics of these systems, the chapter examines the experiences of Italian public administrations in using generative AI. Starting with the notable case of ChatGPT, it analyzes the main challenges associated with adopting this technology, including ethical, operational, and regulatory implications. The chapter then delves into the AI Act’s provisions on generative AI, concluding with an analysis of the General Purpose AI Code of Practice, which serves as a critical tool for guiding the responsible development and application of these models. This thesis aims to provide a critical and structured overview of the AI Act, highlighting its strengths and limitations while proposing balanced regulatory measures to foster innovation, transparency, and the protection of fundamental rights.
Negli ultimi anni, l'Intelligenza Artificiale (IA) ha assunto un ruolo centrale nello sviluppo tecnologico, sociale ed economico, ponendo sfide senza precedenti per i sistemi giuridici nazionali e sovranazionali. Tra le principali iniziative volte a disciplinare l’uso dell’IA spicca l’Artificial Intelligence Act (AI Act), un ambizioso progetto normativo dell’Unione Europea che, inserendosi nel più ampio contesto della Strategia digitale dell’UE, mira a creare un quadro regolamentare uniforme per garantire lo sviluppo e l’implementazione di sistemi di IA in modo etico, antropocentrico, trasparente e sicuro, bilanciando innovazione e tutela dei diritti fondamentali. Il presente lavoro intende analizzare il ruolo e l’impatto dell’AI Act nell’ambito del diritto amministrativo europeo, ponendo particolare attenzione alle implicazioni normative, etiche e operative che derivano dall’utilizzo dell’IA nella Pubblica Amministrazione. Nel primo capitolo, l’AI Act viene inquadrato nell’ambito della Strategia digitale dell’UE, al fine di evidenziarne gli obiettivi fondamentali: promuovere un’Intelligenza Artificiale antropocentrica, garantire la trasparenza e minimizzare i rischi per i cittadini. Si esplora quindi la natura giuridica dell’algoritmo nel contesto amministrativo, l’applicazione del principio europeo di precauzione e l’implementazione dell’approccio basato sul rischio. Vengono esaminati in conclusione i timori emersi rispetto all’approccio europeo, relativi al rischio di arretratezza tecnologica rispetto a Stati Uniti e Cina e al tema dell’obsolescenza normativa. Il secondo capitolo approfondisce i sistemi di IA ad alto rischio e al loro impiego da parte della Pubblica Amministrazione, con particolare riguardo alle criticità connesse alla supervisione umana e al principio della decisione umana finale come strumenti volti ad evitare la deresponsabilizzazione dei funzionari pubblici. Si esaminano inoltre istituti chiave quali la Valutazione d’Impatto sui Diritti Fondamentali e le “sandboxes normative”, finalizzati a sostenere un’innovazione che sia controllata e rispettosa dei diritti dei cittadini. Il terzo capitolo è dedicato al tema della trasparenza e della governance dei dati, come elementi fondamentali per contrastare le problematiche derivanti dall’opacità algoritmica (“black box”). Si esplorano le disposizioni dell’AI Act in materia, per poi vagliare prospettive offerte dalla scienza informatica, quali l’Explainable AI (XAI) e l’adozione di approcci come il transparency by design, per garantire maggiore chiarezza e fiducia nell’uso dei sistemi di IA nella Pubblica Amministrazione. Nel quarto capitolo, l’attenzione si sposta sull’Intelligenza Artificiale Generativa (GAI), come esempio emblematico di Modello per finalità generali. Dopo una panoramica sul funzionamento e sulle caratteristiche peculiari di questi sistemi, si esaminano le esperienze delle pubbliche amministrazioni italiane nell’utilizzo dell’IA Generativa. Partendo dal caso emblematico di ChatGPT, si analizzano poi le principali criticità legate all’adozione di tale tecnologia, incluse le implicazioni etiche, operative e normative. Successivamente, vengono approfondite le disposizioni dell’AI Act relative all’IA Generativa, concludendo con un’analisi del General Purpose AI Code of Practice, che rappresenta un importante strumento per orientare lo sviluppo e l’applicazione responsabile di questi modelli. Questo lavoro si propone di offrire una visione critica e strutturata dell’AI Act, evidenziandone punti di forza e limiti, e avanzando proposte per una regolamentazione equilibrata che favorisca innovazione, trasparenza e tutela dei diritti fondamentali.
Digitalizzazione e automazione nella Pubblica Amministrazione: il nuovo Regolamento (UE) 2024/1689 sotto la lente del diritto amministrativo
D'ANTINO, VALENTINA
2023/2024
Abstract
Negli ultimi anni, l'Intelligenza Artificiale (IA) ha assunto un ruolo centrale nello sviluppo tecnologico, sociale ed economico, ponendo sfide senza precedenti per i sistemi giuridici nazionali e sovranazionali. Tra le principali iniziative volte a disciplinare l’uso dell’IA spicca l’Artificial Intelligence Act (AI Act), un ambizioso progetto normativo dell’Unione Europea che, inserendosi nel più ampio contesto della Strategia digitale dell’UE, mira a creare un quadro regolamentare uniforme per garantire lo sviluppo e l’implementazione di sistemi di IA in modo etico, antropocentrico, trasparente e sicuro, bilanciando innovazione e tutela dei diritti fondamentali. Il presente lavoro intende analizzare il ruolo e l’impatto dell’AI Act nell’ambito del diritto amministrativo europeo, ponendo particolare attenzione alle implicazioni normative, etiche e operative che derivano dall’utilizzo dell’IA nella Pubblica Amministrazione. Nel primo capitolo, l’AI Act viene inquadrato nell’ambito della Strategia digitale dell’UE, al fine di evidenziarne gli obiettivi fondamentali: promuovere un’Intelligenza Artificiale antropocentrica, garantire la trasparenza e minimizzare i rischi per i cittadini. Si esplora quindi la natura giuridica dell’algoritmo nel contesto amministrativo, l’applicazione del principio europeo di precauzione e l’implementazione dell’approccio basato sul rischio. Vengono esaminati in conclusione i timori emersi rispetto all’approccio europeo, relativi al rischio di arretratezza tecnologica rispetto a Stati Uniti e Cina e al tema dell’obsolescenza normativa. Il secondo capitolo approfondisce i sistemi di IA ad alto rischio e al loro impiego da parte della Pubblica Amministrazione, con particolare riguardo alle criticità connesse alla supervisione umana e al principio della decisione umana finale come strumenti volti ad evitare la deresponsabilizzazione dei funzionari pubblici. Si esaminano inoltre istituti chiave quali la Valutazione d’Impatto sui Diritti Fondamentali e le “sandboxes normative”, finalizzati a sostenere un’innovazione che sia controllata e rispettosa dei diritti dei cittadini. Il terzo capitolo è dedicato al tema della trasparenza e della governance dei dati, come elementi fondamentali per contrastare le problematiche derivanti dall’opacità algoritmica (“black box”). Si esplorano le disposizioni dell’AI Act in materia, per poi vagliare prospettive offerte dalla scienza informatica, quali l’Explainable AI (XAI) e l’adozione di approcci come il transparency by design, per garantire maggiore chiarezza e fiducia nell’uso dei sistemi di IA nella Pubblica Amministrazione. Nel quarto capitolo, l’attenzione si sposta sull’Intelligenza Artificiale Generativa (GAI), come esempio emblematico di Modello per finalità generali. Dopo una panoramica sul funzionamento e sulle caratteristiche peculiari di questi sistemi, si esaminano le esperienze delle pubbliche amministrazioni italiane nell’utilizzo dell’IA Generativa. Partendo dal caso emblematico di ChatGPT, si analizzano poi le principali criticità legate all’adozione di tale tecnologia, incluse le implicazioni etiche, operative e normative. Successivamente, vengono approfondite le disposizioni dell’AI Act relative all’IA Generativa, concludendo con un’analisi del General Purpose AI Code of Practice, che rappresenta un importante strumento per orientare lo sviluppo e l’applicazione responsabile di questi modelli. Questo lavoro si propone di offrire una visione critica e strutturata dell’AI Act, evidenziandone punti di forza e limiti, e avanzando proposte per una regolamentazione equilibrata che favorisca innovazione, trasparenza e tutela dei diritti fondamentali.File | Dimensione | Formato | |
---|---|---|---|
TESI D'ANTINO V. - Digitalizzazione e automazione nella Pubblica Amministrazione il nuovo Regolamento UE 20241689 sotto la lente del diritto amministrativo.pdf
non disponibili
Dimensione
2.72 MB
Formato
Adobe PDF
|
2.72 MB | Adobe PDF |
I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/20.500.14240/161346