The thesis provides an analysis of the current application of predictive algorithms and autonomous decision-making systems, their alleged ability to perform actions and make decisions of moral nature and the resulting ethical and social implications. The first chapter explores the evolution of ‘intelligent systems’, starting from Turing's machine and the question ‘Can machines think?’, moving through the origin of the expression ‘artificial intelligence’, up to the first attempts of producing an intelligent behaviour with artificial neural networks and to the rise of machine learning techniques. The second chapter provides a more in-depth analysis of the possibility of thinking machine learning systems not only as intelligent agents, but also as moral agents. More specifically, three main reasons are examined as to why it is complex to consider machines as true moral agents: the lack of a universal ethical foundation, the lack to understand morality and the fragile dependence on data, focusing more on the issues of algorithmic transparency and presence of discriminatory biases and of prejudice. In conclusion, the chapter provides an analysis of the current debate regarding the attribution of accountability for decisions made by a predictive algorithm. Finally, the third chapter examines the specific case of the use of autonomous decision-making systems in the field of predictive policing, a domain that allows to evaluate how the ethical implications discussed in the previous chapter may arise in a specific context, addressing the issue of racial and social discrimination, perpetuated and reinforced by predictive algorithms in the criminal justice system, algorithmic opacity, data processing and privacy violation.

La tesi propone un’analisi sull’attuale utilizzo di algoritmi predittivi e sistemi decisionali autonomi, la loro presunta capacità a compiere azioni e decisioni di natura morale, nonché le conseguenti implicazioni etiche e sociali che ne derivano. Il primo capitolo ripercorre l'evoluzione dei ‘sistemi intelligenti’, partendo dalla macchina di Turing e dalla domanda ‘Possono le macchine pensare?’, passando per la nascita dell’espressione ‘intelligenza artificiale’, fino ad approdare ai primi tentativi di simulazione di comportamento intelligente attraverso le reti neurali artificiali e all’ascesa del machine learning. Il secondo capitolo approfondisce la possibilità di concepire i sistemi di apprendimento automatico non solo come agenti intelligenti, bensì anche come agenti morali. In particolare, vengono analizzate tre principali ragioni per cui risulta complesso considerare le macchine veri e propri agenti morali: la mancanza di un fondamento etico universale, l’incapacità di comprensione morale e la fragile dipendenza dai dati, ponendo maggiore attenzione sulla questione relativa alla trasparenza algoritmica e alla presenza di bias discriminatori e di pregiudizi. In conclusione, viene proposta un’analisi sul dibattito relativo all’attribuzione di responsabilità in relazione alle scelte compiute da un algoritmo predittivo. Infine, il terzo capitolo propone il caso specifico dell’uso di sistemi decisionali autonomi nell’ambito della sorveglianza predittiva, ambito che permette di valutare come le implicazioni etiche emerse nel capitolo precedente possano manifestarsi in un contesto concreto. Vengono affrontati in particolare il problema della discriminazione razziale e sociale perpetuata e rinforzata dagli algoritmi predittivi nel sistema della giustizia penale, nonchè dell’opacità algoritmica, trattamento dei dati e violazione della privacy.

Etica e intelligenza artificiale: la moralità delle macchine nell’era delle decisioni automatizzate

CARETTO, ARIANNA
2023/2024

Abstract

La tesi propone un’analisi sull’attuale utilizzo di algoritmi predittivi e sistemi decisionali autonomi, la loro presunta capacità a compiere azioni e decisioni di natura morale, nonché le conseguenti implicazioni etiche e sociali che ne derivano. Il primo capitolo ripercorre l'evoluzione dei ‘sistemi intelligenti’, partendo dalla macchina di Turing e dalla domanda ‘Possono le macchine pensare?’, passando per la nascita dell’espressione ‘intelligenza artificiale’, fino ad approdare ai primi tentativi di simulazione di comportamento intelligente attraverso le reti neurali artificiali e all’ascesa del machine learning. Il secondo capitolo approfondisce la possibilità di concepire i sistemi di apprendimento automatico non solo come agenti intelligenti, bensì anche come agenti morali. In particolare, vengono analizzate tre principali ragioni per cui risulta complesso considerare le macchine veri e propri agenti morali: la mancanza di un fondamento etico universale, l’incapacità di comprensione morale e la fragile dipendenza dai dati, ponendo maggiore attenzione sulla questione relativa alla trasparenza algoritmica e alla presenza di bias discriminatori e di pregiudizi. In conclusione, viene proposta un’analisi sul dibattito relativo all’attribuzione di responsabilità in relazione alle scelte compiute da un algoritmo predittivo. Infine, il terzo capitolo propone il caso specifico dell’uso di sistemi decisionali autonomi nell’ambito della sorveglianza predittiva, ambito che permette di valutare come le implicazioni etiche emerse nel capitolo precedente possano manifestarsi in un contesto concreto. Vengono affrontati in particolare il problema della discriminazione razziale e sociale perpetuata e rinforzata dagli algoritmi predittivi nel sistema della giustizia penale, nonchè dell’opacità algoritmica, trattamento dei dati e violazione della privacy.
Ethics and Artificial Intelligence: The Morality of Machines in the Age of Automated Decisions
The thesis provides an analysis of the current application of predictive algorithms and autonomous decision-making systems, their alleged ability to perform actions and make decisions of moral nature and the resulting ethical and social implications. The first chapter explores the evolution of ‘intelligent systems’, starting from Turing's machine and the question ‘Can machines think?’, moving through the origin of the expression ‘artificial intelligence’, up to the first attempts of producing an intelligent behaviour with artificial neural networks and to the rise of machine learning techniques. The second chapter provides a more in-depth analysis of the possibility of thinking machine learning systems not only as intelligent agents, but also as moral agents. More specifically, three main reasons are examined as to why it is complex to consider machines as true moral agents: the lack of a universal ethical foundation, the lack to understand morality and the fragile dependence on data, focusing more on the issues of algorithmic transparency and presence of discriminatory biases and of prejudice. In conclusion, the chapter provides an analysis of the current debate regarding the attribution of accountability for decisions made by a predictive algorithm. Finally, the third chapter examines the specific case of the use of autonomous decision-making systems in the field of predictive policing, a domain that allows to evaluate how the ethical implications discussed in the previous chapter may arise in a specific context, addressing the issue of racial and social discrimination, perpetuated and reinforced by predictive algorithms in the criminal justice system, algorithmic opacity, data processing and privacy violation.
Autorizzo consultazione esterna dell'elaborato
File in questo prodotto:
File Dimensione Formato  
Tesi Triennale Arianna Caretto.pdf

non disponibili

Dimensione 1.31 MB
Formato Adobe PDF
1.31 MB Adobe PDF

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14240/166662