Artificial Intelligence systems (particularly those that exploit machine learning) are now able to provide answers, make predictions, and make decisions increasingly quickly and accurately. Therefore, these systems are, increasingly, supporting or replacing humans when it comes to making decisions (Automated Decision-Making or ADM). Automated decision-making is now being used in many areas, such as loan granting, employee selection, and insurance premium determination, as well as in countering tax evasion, money laundering, and drug trafficking. Although these tools can bring great benefits to our society, however, ADM processes can be affected by bias, can be erroneous, can lead to episodes of discrimination, and, most importantly, can be difficult to understand. The possible risks posed by automated decisions have given rise to a debate on the need for a new right: starting from the assumption that, except in cases provided for by law, a decision made by a human being does not give the individual concerned the right to an explanation of the decision, the question has been raised as to whether, in cases where the decision is instead made by an algorithm, it is necessary to configure, in the person affected, a right to an explanation. The increasing use of automated decisions, therefore, has posed the need to act, at the European level, by regulating these tools to ensure greater transparency and explainability. This paper aims to study such regulation and is structured as follows. In Chapter I, we frame the ethical-legal issues that arise in relation to the use of ADM processes; in Chapter II, we analyze the European regulation of these processes from a historical perspective, in order to identify a common thread in the approach taken by the legislator; finally, in Chapter III, we view this regulation through a critical lens, highlighting two problematic aspects of it.

I sistemi di Intelligenza Artificiale (in particolare quelli che sfruttano il machine learning) sono ormai in grado di fornire risposte, formulare previsioni e prendere decisioni in modo sempre più rapido e preciso. Pertanto, questi sistemi stanno, sempre più spesso, affiancando o sostituendo l’uomo quando si tratta di prendere decisioni (Automated Decision-Making o ADM). Le decisioni automatizzate vengono oggi utilizzate in molti settori, come la concessione di prestiti, la selezione del personale, la determinazione dei premi assicurativi, nonché nel contrasto all'evasione fiscale, al riciclaggio di denaro e al traffico di droga. Sebbene questi strumenti possano arrecare grandi benefici alla nostra società, tuttavia, i processi di ADM possono essere affetti da bias, possono essere errati, possono portare ad episodi di discriminazione e, soprattutto, possono risultare scarsamente comprensibili. I possibili rischi posti dalle decisioni automatizzate hanno dato vita a un dibattito sulla necessità di un nuovo diritto: partendo dal presupposto che, salvo i casi previsti dalla legge, una decisione presa da un essere umano non fa sorgere nell'interessato il diritto ad una spiegazione della decisione, ci si è chiesti se, nel caso in cui la decisione sia invece presa da un algoritmo, sia necessario configurare, in capo all’interessato, un diritto alla spiegazione. Il crescente impiego delle decisioni automatizzate, dunque, ha posto la necessità di intervenire, a livello europeo, regolando questi strumenti per garantire maggiore trasparenza e spiegabilità. Il presente contributo si propone di studiare tale regolazione ed è strutturato come segue. Nel Capitolo I, si inquadrano i problemi etico-giuridici che sorgono in relazione all’utilizzo dei processi di ADM; nel Capitolo II, si analizza la regolamentazione europea di questi processi in chiave storica, per individuare un fil rouge nell’approccio adottato dal legislatore; infine, nel Capitolo III, si osserva questa regolazione attraverso una lente critica, evidenziandone due aspetti problematici.

Il diritto alla spiegazione delle decisioni automatizzate nella normativa europea

COTOGNI, GIULIO
2023/2024

Abstract

I sistemi di Intelligenza Artificiale (in particolare quelli che sfruttano il machine learning) sono ormai in grado di fornire risposte, formulare previsioni e prendere decisioni in modo sempre più rapido e preciso. Pertanto, questi sistemi stanno, sempre più spesso, affiancando o sostituendo l’uomo quando si tratta di prendere decisioni (Automated Decision-Making o ADM). Le decisioni automatizzate vengono oggi utilizzate in molti settori, come la concessione di prestiti, la selezione del personale, la determinazione dei premi assicurativi, nonché nel contrasto all'evasione fiscale, al riciclaggio di denaro e al traffico di droga. Sebbene questi strumenti possano arrecare grandi benefici alla nostra società, tuttavia, i processi di ADM possono essere affetti da bias, possono essere errati, possono portare ad episodi di discriminazione e, soprattutto, possono risultare scarsamente comprensibili. I possibili rischi posti dalle decisioni automatizzate hanno dato vita a un dibattito sulla necessità di un nuovo diritto: partendo dal presupposto che, salvo i casi previsti dalla legge, una decisione presa da un essere umano non fa sorgere nell'interessato il diritto ad una spiegazione della decisione, ci si è chiesti se, nel caso in cui la decisione sia invece presa da un algoritmo, sia necessario configurare, in capo all’interessato, un diritto alla spiegazione. Il crescente impiego delle decisioni automatizzate, dunque, ha posto la necessità di intervenire, a livello europeo, regolando questi strumenti per garantire maggiore trasparenza e spiegabilità. Il presente contributo si propone di studiare tale regolazione ed è strutturato come segue. Nel Capitolo I, si inquadrano i problemi etico-giuridici che sorgono in relazione all’utilizzo dei processi di ADM; nel Capitolo II, si analizza la regolamentazione europea di questi processi in chiave storica, per individuare un fil rouge nell’approccio adottato dal legislatore; infine, nel Capitolo III, si osserva questa regolazione attraverso una lente critica, evidenziandone due aspetti problematici.
ITA
Artificial Intelligence systems (particularly those that exploit machine learning) are now able to provide answers, make predictions, and make decisions increasingly quickly and accurately. Therefore, these systems are, increasingly, supporting or replacing humans when it comes to making decisions (Automated Decision-Making or ADM). Automated decision-making is now being used in many areas, such as loan granting, employee selection, and insurance premium determination, as well as in countering tax evasion, money laundering, and drug trafficking. Although these tools can bring great benefits to our society, however, ADM processes can be affected by bias, can be erroneous, can lead to episodes of discrimination, and, most importantly, can be difficult to understand. The possible risks posed by automated decisions have given rise to a debate on the need for a new right: starting from the assumption that, except in cases provided for by law, a decision made by a human being does not give the individual concerned the right to an explanation of the decision, the question has been raised as to whether, in cases where the decision is instead made by an algorithm, it is necessary to configure, in the person affected, a right to an explanation. The increasing use of automated decisions, therefore, has posed the need to act, at the European level, by regulating these tools to ensure greater transparency and explainability. This paper aims to study such regulation and is structured as follows. In Chapter I, we frame the ethical-legal issues that arise in relation to the use of ADM processes; in Chapter II, we analyze the European regulation of these processes from a historical perspective, in order to identify a common thread in the approach taken by the legislator; finally, in Chapter III, we view this regulation through a critical lens, highlighting two problematic aspects of it.
IMPORT DA TESIONLINE
File in questo prodotto:
File Dimensione Formato  
916945_ildirittoallaspiegazionedelledecisioniautomatizzatenellanormtivaeuropea.pdf

non disponibili

Tipologia: Altro materiale allegato
Dimensione 2.28 MB
Formato Adobe PDF
2.28 MB Adobe PDF

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14240/112862