This work wants to analyse John R. Searle's arguments according to which the Artificial Intelligence project, i.e. the attempt to recreate human cognitive faculties in a computer, is destined to have a negative result. First of all, this failure is due to the lack of understanding by a programme that simulates the way in which a man works, as Searle shows with the thought experiment known as 'Chinese Room', in which a homunculus, closed in a room, performs the computing processes needed to give the answers to questions asked him in an unknown language. The computer, as a matter of fact, only has not interpreted symbols and it gives the answers using only formal laws. A man, instead, knows the meaning associated to the words, since he is endowed with intentionality. Intentionality is a property that characterizes mental states and it allows them to concern about objects of the external world. It is the representation of aspects of the world in psychological ways and it let understand and express the meaning of the enunciations. This is possible because a bond exists between speech acts, having derived intentionality, and mental states, having intrinsic intentionality: the formers are the expression of the seconds, thanks to the transmission to them of the same satisfaction conditions of the mental state. The experiment suggested by Searle isn't, however, considered definitive by the rest of the philosophers, but it has hallowed the rise of a debate. Some philosophers support the so called 'system critic', according to which, even if the homunculus doesn't understand, the system that incorporates him does. Others, on the other hand, suggest the 'robot critic', according to which a computer that can have a relation with the world through perception and action understands, like a man. Others think to create a computer which is formally identical to human brain. Other considerations have been made against Searle's experiment, but he still claims that they don't confute it. As a matter of fact, a present or a future programme can't be the reason to give intentionality to a system, since it considers only syntactic properties. To let the subject understand what he is doing, he requires a semantics as well. Lastly, Searle gives one more reason not to accept the parallelism between human mind and a computer: computation is not an intrinsic property, because it comes out just when an external agent describes the phenomenon with a syntactics. This causes that the programme doesn't have a causal role in the production of mental states; it is just a simulation of what happens inside human brain, but it will never be a real reproduction of brain phenomenon. As a matter of facts, brain, unlike computer, isn't an information processor, but it has chemical and physical properties that allow the birth of real and conscious states. All this leads to the conclusion that a computer that thinks like a man can't be created.
La presente tesi si propone di analizzare le argomentazioni del filosofo John R. Searle secondo le quali il progetto dell'Intelligenza Artificiale, cioè il tentativo di replicare le facoltà cognitive umane grazie ad un computer, è destinato ad avere un esito negativo. Tale fallimento è dovuto, in primo luogo, all'assenza di comprensione da parte di un programma che imiti l'operare umano, come viene mostrato da Searle con l'esperimento mentale noto come 'stanza cinese', in cui un omuncolo, chiuso in una stanza, opera i passaggi computazionali necessari per fornire risposte alle domande postegli in una lingua sconosciuta. Il computer, infatti, possiede unicamente simboli non interpretati ed elabora le risposte solo in virtù di regole formali. Un parlante umano, al contrario, conosce il significato associato alle parole, dal momento che è dotato di intenzionalità. L'intenzionalità è una proprietà che caratterizza gli stati mentali, per cui essi vertono su oggetti del mondo esterno. Essa consiste nella rappresentazione di aspetti del mondo in determinati modi psicologici e permette di esprimere e capire il significato delle enunciazioni. Ciò è possibile perché esiste un collegamento tra atti linguistici, dotati di intenzionalità derivata, e stati mentali, dotati di intenzionalità intrinseca: i primi sono l'espressione dei secondi, grazie all'imposizione ad essi di condizioni di soddisfazione uguali a quelle dello stato mentale espresso. L'esperimento proposto da Searle non è, comunque, considerato definitivo nel panorama filosofico, ma ha permesso il sorgere di un ricco dibattito. Sono molti i filosofi che sostengono la cosiddetta critica 'del sistema', in base a cui la comprensione è una caratteristica da attribuire non al solo omuncolo, ma all'intero sistema di cui esso fa parte. Altri, invece, hanno elaborato la 'critica del robot', secondo cui un computer che potesse relazionarsi con il mondo esterno tramite percezione e azione sarebbe dotato di comprensione, al pari di un essere umano. Altri ancora hanno ipotizzato di creare un computer che sia formalmente identico al sistema cerebrale umano. Oltre a queste, altre considerazioni sono state mosse contro l'esperimento di Searle, ma il filosofo ha continuato a ribadire che esse non sono state in grado di confutarlo. Infatti, un programma, già sviluppato o del futuro, non potrà mai essere di per sé la condizione per attribuire intenzionalità ad un sistema, dal momento che prende in considerazione solo le proprietà sintattiche. Affinché si possa parlare di comprensione da parte del soggetto è necessario che esso sia dotato anche di una semantica. Infine, Searle mette ancora in luce un motivo per cui il parallelo tra la mente umana e il computer fallisce: la computazione non è una proprietà intrinseca, ma emerge solo nel momento in cui un agente esterno appone una sintassi al fenomeno in esame. Questo fa sì che il programma non abbia alcun ruolo causale nella produzione di stati mentali; esso è solo una simulazione di ciò che avviene nel cervello umano, ma non potrà mai essere una riproduzione effettiva dei fenomeni cerebrali. Il cervello, infatti, a differenza del computer, non è un elaboratore di informazioni, ma ha proprietà chimiche e fisiche che permettono la nascita di reali stati mentali coscienti. Si vede, quindi, tramontare il sogno di creare computer che pensino come gli esseri umani.
SEARLE CONTRO L'INTELLIGENZA ARTIFICIALE
ASVISIO, MARTA
2015/2016
Abstract
La presente tesi si propone di analizzare le argomentazioni del filosofo John R. Searle secondo le quali il progetto dell'Intelligenza Artificiale, cioè il tentativo di replicare le facoltà cognitive umane grazie ad un computer, è destinato ad avere un esito negativo. Tale fallimento è dovuto, in primo luogo, all'assenza di comprensione da parte di un programma che imiti l'operare umano, come viene mostrato da Searle con l'esperimento mentale noto come 'stanza cinese', in cui un omuncolo, chiuso in una stanza, opera i passaggi computazionali necessari per fornire risposte alle domande postegli in una lingua sconosciuta. Il computer, infatti, possiede unicamente simboli non interpretati ed elabora le risposte solo in virtù di regole formali. Un parlante umano, al contrario, conosce il significato associato alle parole, dal momento che è dotato di intenzionalità. L'intenzionalità è una proprietà che caratterizza gli stati mentali, per cui essi vertono su oggetti del mondo esterno. Essa consiste nella rappresentazione di aspetti del mondo in determinati modi psicologici e permette di esprimere e capire il significato delle enunciazioni. Ciò è possibile perché esiste un collegamento tra atti linguistici, dotati di intenzionalità derivata, e stati mentali, dotati di intenzionalità intrinseca: i primi sono l'espressione dei secondi, grazie all'imposizione ad essi di condizioni di soddisfazione uguali a quelle dello stato mentale espresso. L'esperimento proposto da Searle non è, comunque, considerato definitivo nel panorama filosofico, ma ha permesso il sorgere di un ricco dibattito. Sono molti i filosofi che sostengono la cosiddetta critica 'del sistema', in base a cui la comprensione è una caratteristica da attribuire non al solo omuncolo, ma all'intero sistema di cui esso fa parte. Altri, invece, hanno elaborato la 'critica del robot', secondo cui un computer che potesse relazionarsi con il mondo esterno tramite percezione e azione sarebbe dotato di comprensione, al pari di un essere umano. Altri ancora hanno ipotizzato di creare un computer che sia formalmente identico al sistema cerebrale umano. Oltre a queste, altre considerazioni sono state mosse contro l'esperimento di Searle, ma il filosofo ha continuato a ribadire che esse non sono state in grado di confutarlo. Infatti, un programma, già sviluppato o del futuro, non potrà mai essere di per sé la condizione per attribuire intenzionalità ad un sistema, dal momento che prende in considerazione solo le proprietà sintattiche. Affinché si possa parlare di comprensione da parte del soggetto è necessario che esso sia dotato anche di una semantica. Infine, Searle mette ancora in luce un motivo per cui il parallelo tra la mente umana e il computer fallisce: la computazione non è una proprietà intrinseca, ma emerge solo nel momento in cui un agente esterno appone una sintassi al fenomeno in esame. Questo fa sì che il programma non abbia alcun ruolo causale nella produzione di stati mentali; esso è solo una simulazione di ciò che avviene nel cervello umano, ma non potrà mai essere una riproduzione effettiva dei fenomeni cerebrali. Il cervello, infatti, a differenza del computer, non è un elaboratore di informazioni, ma ha proprietà chimiche e fisiche che permettono la nascita di reali stati mentali coscienti. Si vede, quindi, tramontare il sogno di creare computer che pensino come gli esseri umani.File | Dimensione | Formato | |
---|---|---|---|
767071_tesi.pdf
non disponibili
Tipologia:
Altro materiale allegato
Dimensione
482.94 kB
Formato
Adobe PDF
|
482.94 kB | Adobe PDF |
I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/20.500.14240/118642