The recent breakthroughs in social robotics and the spreading of increasingly sophisticated artificial agents have led the research in human-robot interaction (HRI) to acknowledge them as actual social actors. Since every social relationship is inherently also a moral one, this new sort of interaction confronts us with unprecedented ethical questions. The paper, therefore, stems from the will to investigate how social robots stand with regard to the moral community and whether they can be considered not only social actors but also moral actors, along with the ethical implications that follow. Throughout the text, a distinction is first made between the notion of "moral agent" and "moral patient." The former notion is then discussed referencing applied ethics, as suggested by engineering ethics and machine ethics. However, they are shown to be inadequate in properly legitimizing social robots as moral agents. The second one is addressed by identifying three main philosophical approaches for ascribing moral relevance: ontological, comparative and relational. Although all of these fail to normatively ground the membership of social robots in the moral circle, this analysis highlights the fundamental role of empathy in moral recognition processes and the need to investigate its underlying functioning and significance. Empathy is investigated by turning to a neurocognitive understanding, which emphasizes its physiological and evolutionary roots, along with the anthropomorphizing mechanisms involved. Partly through HRI studies, which highlight the human tendency to anthropomorphize social robots and show spontaneous empathy toward them, the empathic process is identified as an instinctual and prereflexive drive for moral recognition. Following this background, the most challenging ethical issues are discussed, along with the theoretical effort to hold empirical cognitive evidence and philosophical reflection together. While the paper acknowledges the central role of empathy in ascribing moral relevance, it also points out its limitations by reframing the three considered approaches, not as competing paradigms, but as complementary moments of the one moral recognition process. Thus, a fundamental tension emerges between the impossibility for the normative justification of social robots' membership in the moral circle and the human tendency, despite this, to experience a certain degree of empathy and moral regard toward them. Finally, the discussion explores two main ethical issues that arise from this tension. First, the design of highly humanlike social robots seems to constitute a form of deception and an arbitrary manipulation of individual empathic processes, which hinder accurate self-representation of reality, in favor of economic and commercial interests. On the other hand, the increasingly widespread presence of such robots poses moral agents in an unprecedented condition, where empathy is no longer a reliable tool for moral recognition. Both issues, then, trigger the need to rethink design and production models of social robotics, which should find in ethical discussion the main pillar to build a path that is attentive to the sustainability and consequences of its advancements. ​

I recenti progressi di robotica sociale e la diffusione di agenti artificiali sempre più sofisticati hanno condotto l’indagine sulle interazioni uomo-robot (HRI) a riconoscere in essi dei veri e propri attori sociali. Poiché ogni relazione sociale è anche intrinsecamente morale, questo nuovo genere di interazioni ci pone di fronte a questioni etiche altrettanto inedite. L’elaborato, dunque, nasce dalla volontà di indagare come i social robot si pongano rispetto alla comunità morale e se possano essere considerati, oltre che attori sociali, anche attori morali, con le implicazioni etiche che ne derivano. Nel testo, dunque, si distingue in primo luogo tra la nozione di “agente morale” e quella di “paziente morale”. La prima nozione viene poi discussa con riferimento all’etica applicata dell’engineering ethics e della machine ethics, le quali però non riescono propriamente a legittimare i social robot come agenti morali. La seconda, invece, viene affrontata individuando tre principali approcci filosofici per l’attribuzione della rilevanza morale: ontologico, comparativo e relazionale. Benché nessuno di questi riesca a fondare normativamente l’appartenenza dei social robot al moral circle, da tale disamina emerge il ruolo fondamentale dell’empatia nei processi di riconoscimento morale e l’esigenza di approfondirne funzionamento e significato. Essa viene analizzata rivolgendosi a una concezione neuro-cognitiva, che ne sottolinea le origini fisiologiche ed evolutive, così come i meccanismi di antropomorfismo che coinvolge. Anche attraverso gli studi di HRI, che evidenziano la tendenza umana ad antropomorfizzare i social robot e a mostrare una spontanea empatia verso di essi, il processo empatico viene identificato quale motore istintivo e preriflessivo per il riconoscimento morale. A partire da tali premesse, quindi, vengono discussi i nodi etici più problematici, accompagnati dallo sforzo teorico di tenere insieme evidenze cognitive empiriche e riflessione filosofica. Pur riconoscendo il ruolo centrale dell’empatia nell’attribuzione della rilevanza morale, infatti, l’elaborato ne sottolinea anche i limiti, ripensando i tre approcci esaminati, non come paradigmi concorrenti, ma quali momenti complementari di un unico processo di riconoscimento morale. Emerge, dunque, una fondamentale tensione tra l’impossibilità di giustificare normativamente l’appartenenza dei social robot al moral circle e la tendenza umana, malgrado ciò, a sperimentare verso di essi un certo grado di empatia e di riguardo morale. Infine, l’analisi prende in esame due principali questioni etiche che sorgono da tale tensione. In primo luogo la progettazione di social robot altamente antropomorfi sembra costituire una forma di inganno e di manipolazione arbitraria dei processi empatici individuali, che ostacolano un’accurata autorappresentazione della realtà, in favore di interessi economici e commerciali. Dall’altro, la presenza sempre più pervasiva di robot simili pone gli agenti morali in una condizione inedita, nella quale l’empatia non rappresenta più uno strumento affidabile per il riconoscimento morale. Entrambe le questioni, dunque, determinano l’esigenza di ripensare i modelli di progettazione e produzione della robotica sociale, di cui la riflessione etica dovrebbe costituire il pilastro principale nella costruzione di un percorso attento alla sostenibilità e alle conseguenze dei suoi progressi. ​

Da Social Robot a Moral Robot? Empatia e rilevanza morale nell'era degli agenti artificiali. ​

DI CICCO, GIOVANNA
2022/2023

Abstract

I recenti progressi di robotica sociale e la diffusione di agenti artificiali sempre più sofisticati hanno condotto l’indagine sulle interazioni uomo-robot (HRI) a riconoscere in essi dei veri e propri attori sociali. Poiché ogni relazione sociale è anche intrinsecamente morale, questo nuovo genere di interazioni ci pone di fronte a questioni etiche altrettanto inedite. L’elaborato, dunque, nasce dalla volontà di indagare come i social robot si pongano rispetto alla comunità morale e se possano essere considerati, oltre che attori sociali, anche attori morali, con le implicazioni etiche che ne derivano. Nel testo, dunque, si distingue in primo luogo tra la nozione di “agente morale” e quella di “paziente morale”. La prima nozione viene poi discussa con riferimento all’etica applicata dell’engineering ethics e della machine ethics, le quali però non riescono propriamente a legittimare i social robot come agenti morali. La seconda, invece, viene affrontata individuando tre principali approcci filosofici per l’attribuzione della rilevanza morale: ontologico, comparativo e relazionale. Benché nessuno di questi riesca a fondare normativamente l’appartenenza dei social robot al moral circle, da tale disamina emerge il ruolo fondamentale dell’empatia nei processi di riconoscimento morale e l’esigenza di approfondirne funzionamento e significato. Essa viene analizzata rivolgendosi a una concezione neuro-cognitiva, che ne sottolinea le origini fisiologiche ed evolutive, così come i meccanismi di antropomorfismo che coinvolge. Anche attraverso gli studi di HRI, che evidenziano la tendenza umana ad antropomorfizzare i social robot e a mostrare una spontanea empatia verso di essi, il processo empatico viene identificato quale motore istintivo e preriflessivo per il riconoscimento morale. A partire da tali premesse, quindi, vengono discussi i nodi etici più problematici, accompagnati dallo sforzo teorico di tenere insieme evidenze cognitive empiriche e riflessione filosofica. Pur riconoscendo il ruolo centrale dell’empatia nell’attribuzione della rilevanza morale, infatti, l’elaborato ne sottolinea anche i limiti, ripensando i tre approcci esaminati, non come paradigmi concorrenti, ma quali momenti complementari di un unico processo di riconoscimento morale. Emerge, dunque, una fondamentale tensione tra l’impossibilità di giustificare normativamente l’appartenenza dei social robot al moral circle e la tendenza umana, malgrado ciò, a sperimentare verso di essi un certo grado di empatia e di riguardo morale. Infine, l’analisi prende in esame due principali questioni etiche che sorgono da tale tensione. In primo luogo la progettazione di social robot altamente antropomorfi sembra costituire una forma di inganno e di manipolazione arbitraria dei processi empatici individuali, che ostacolano un’accurata autorappresentazione della realtà, in favore di interessi economici e commerciali. Dall’altro, la presenza sempre più pervasiva di robot simili pone gli agenti morali in una condizione inedita, nella quale l’empatia non rappresenta più uno strumento affidabile per il riconoscimento morale. Entrambe le questioni, dunque, determinano l’esigenza di ripensare i modelli di progettazione e produzione della robotica sociale, di cui la riflessione etica dovrebbe costituire il pilastro principale nella costruzione di un percorso attento alla sostenibilità e alle conseguenze dei suoi progressi. ​
ITA
The recent breakthroughs in social robotics and the spreading of increasingly sophisticated artificial agents have led the research in human-robot interaction (HRI) to acknowledge them as actual social actors. Since every social relationship is inherently also a moral one, this new sort of interaction confronts us with unprecedented ethical questions. The paper, therefore, stems from the will to investigate how social robots stand with regard to the moral community and whether they can be considered not only social actors but also moral actors, along with the ethical implications that follow. Throughout the text, a distinction is first made between the notion of "moral agent" and "moral patient." The former notion is then discussed referencing applied ethics, as suggested by engineering ethics and machine ethics. However, they are shown to be inadequate in properly legitimizing social robots as moral agents. The second one is addressed by identifying three main philosophical approaches for ascribing moral relevance: ontological, comparative and relational. Although all of these fail to normatively ground the membership of social robots in the moral circle, this analysis highlights the fundamental role of empathy in moral recognition processes and the need to investigate its underlying functioning and significance. Empathy is investigated by turning to a neurocognitive understanding, which emphasizes its physiological and evolutionary roots, along with the anthropomorphizing mechanisms involved. Partly through HRI studies, which highlight the human tendency to anthropomorphize social robots and show spontaneous empathy toward them, the empathic process is identified as an instinctual and prereflexive drive for moral recognition. Following this background, the most challenging ethical issues are discussed, along with the theoretical effort to hold empirical cognitive evidence and philosophical reflection together. While the paper acknowledges the central role of empathy in ascribing moral relevance, it also points out its limitations by reframing the three considered approaches, not as competing paradigms, but as complementary moments of the one moral recognition process. Thus, a fundamental tension emerges between the impossibility for the normative justification of social robots' membership in the moral circle and the human tendency, despite this, to experience a certain degree of empathy and moral regard toward them. Finally, the discussion explores two main ethical issues that arise from this tension. First, the design of highly humanlike social robots seems to constitute a form of deception and an arbitrary manipulation of individual empathic processes, which hinder accurate self-representation of reality, in favor of economic and commercial interests. On the other hand, the increasingly widespread presence of such robots poses moral agents in an unprecedented condition, where empathy is no longer a reliable tool for moral recognition. Both issues, then, trigger the need to rethink design and production models of social robotics, which should find in ethical discussion the main pillar to build a path that is attentive to the sustainability and consequences of its advancements. ​
IMPORT DA TESIONLINE
File in questo prodotto:
File Dimensione Formato  
805413_tesimagistraledicicco.pdf

non disponibili

Tipologia: Altro materiale allegato
Dimensione 828.51 kB
Formato Adobe PDF
828.51 kB Adobe PDF

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14240/108262