Artificial intelligence (AI) is a branch of computer science that focuses on creating models and algorithms capable of performing tasks that have traditionally required human intelligence. These tasks include learning, reasoning, problem-solving, understanding natural language, visual perception, and decision-making. The impressive results of the most recent generative AI models, particularly those designed for natural language processing (Large Language Models), have raised important philosophical questions about whether they truly understand the meaning of the texts they process. While we often associate human semantic understanding with various performances, such as correct translation, appropriate responses to requests, or sensitivity to contradictions, many philosophers remain unconvinced that language models, despite performing comparably to humans in these areas, genuinely grasp the meaning of linguistic entities. Even the fact that some models have passed the Turing test—demonstrating language behavior indistinguishable from that of a human to an external observer—has been taken as evidence of the test's inadequacy rather than proof of the model's intelligence. To address these concerns, after a careful review of the development stages of AI models and their internal functioning, this thesis will analyze the main philosophical objections to the semantic understanding of artificial systems, particularly those that emphasize the distinction between apparent behavior and genuine understanding. In conclusion, the primary limitation of language models will be identified in their violation of the "functioning criterion," which states that the observable behavior of a system with semantic understanding must be causally explained by referring to the semantic properties of its internal states. These models violate this criterion because they achieve their performances by exploiting a variable that is only a proxy for the true meaning of words—their distribution across large amounts of text. Therefore, the behavior exhibited would only be the result of a correlation exploited by the models and would not represent true semantic understanding.
L’intelligenza artificiale (AI) è un ramo dell’informatica che si occupa della creazione di modelli e algoritmi capaci di svolgere compiti che fino a questo momento richiedevano necessariamente l’intelligenza umana. Questi compiti includono l’apprendimento, il ragionamento, la risoluzione dei problemi, la comprensione del linguaggio naturale, la percezione visiva e la capacità di prendere decisioni. Gli impressionanti risultati dei più recenti modelli di AI generativa, soprattutto quelli deputati all’elaborazione del linguaggio naturale (Large Language Models), hanno sollevato importanti domande filosofiche sulla possibilità che essi abbiano una vera comprensione del significato dei testi che processano. Se da una parte siamo soliti associare alla comprensione semantica umana una serie di prestazioni, come la traduzione corretta, o la reazione appropriata a una richiesta, o la sensibilità alla contraddizione, molti filosofi non sembrano convinti che i modelli di linguaggio, che pure hanno performance comparabili agli umani in tutti questi ambiti, siano genuinamente in grado di afferrare il significato degli enti linguistici. Persino il fatto che alcuni modelli abbiano superato il test di Turing, cioè abbiano esibito agli occhi di un osservatore esterno un comportamento linguistico indistinguibile da quello di una persona, è stato accolto come evidenza dell’inadeguatezza del test piuttosto che come evidenza dell’intelligenza del modello. Per rispondere a questi dubbi, dopo un'accurata ricostruzione delle tappe dell'evoluzione dei modelli AI e del loro funzionamento interno, questa tesi analizzerà le principali obiezioni filosofiche alla comprensione semantica dei sistemi artificiali, in particolare quelle che hanno insistito sulla distinzione tra comportamento apparente e comprensione genuina. In conclusione, il principale limite dei modelli di linguaggio verrà individuato nella loro violazione del "functioning criterion", cioè il criterio per il quale il comportamento manifesto di un sistema con comprensione semantica deve essere spiegato causalmente rifacendosi alle proprietà semantiche dei suoi stati interni. Questi modelli violano questo criterio perchè per ottenere le loro performance sfruttano una variabile che è solo un proxy del vero significato delle parole, ovvero la loro distribuzione su grandi quantità di testo. Il comportamento esibito sarebbe quindi solo frutto di una correlazione sfruttata fortuitamente dai modelli, e non rappresenterebbe una vera comprensione semantica.
On the Semantic Understanding of Language Models and the Relation between Philosophy and AI
FRACCHIONI, RICCARDO
2023/2024
Abstract
L’intelligenza artificiale (AI) è un ramo dell’informatica che si occupa della creazione di modelli e algoritmi capaci di svolgere compiti che fino a questo momento richiedevano necessariamente l’intelligenza umana. Questi compiti includono l’apprendimento, il ragionamento, la risoluzione dei problemi, la comprensione del linguaggio naturale, la percezione visiva e la capacità di prendere decisioni. Gli impressionanti risultati dei più recenti modelli di AI generativa, soprattutto quelli deputati all’elaborazione del linguaggio naturale (Large Language Models), hanno sollevato importanti domande filosofiche sulla possibilità che essi abbiano una vera comprensione del significato dei testi che processano. Se da una parte siamo soliti associare alla comprensione semantica umana una serie di prestazioni, come la traduzione corretta, o la reazione appropriata a una richiesta, o la sensibilità alla contraddizione, molti filosofi non sembrano convinti che i modelli di linguaggio, che pure hanno performance comparabili agli umani in tutti questi ambiti, siano genuinamente in grado di afferrare il significato degli enti linguistici. Persino il fatto che alcuni modelli abbiano superato il test di Turing, cioè abbiano esibito agli occhi di un osservatore esterno un comportamento linguistico indistinguibile da quello di una persona, è stato accolto come evidenza dell’inadeguatezza del test piuttosto che come evidenza dell’intelligenza del modello. Per rispondere a questi dubbi, dopo un'accurata ricostruzione delle tappe dell'evoluzione dei modelli AI e del loro funzionamento interno, questa tesi analizzerà le principali obiezioni filosofiche alla comprensione semantica dei sistemi artificiali, in particolare quelle che hanno insistito sulla distinzione tra comportamento apparente e comprensione genuina. In conclusione, il principale limite dei modelli di linguaggio verrà individuato nella loro violazione del "functioning criterion", cioè il criterio per il quale il comportamento manifesto di un sistema con comprensione semantica deve essere spiegato causalmente rifacendosi alle proprietà semantiche dei suoi stati interni. Questi modelli violano questo criterio perchè per ottenere le loro performance sfruttano una variabile che è solo un proxy del vero significato delle parole, ovvero la loro distribuzione su grandi quantità di testo. Il comportamento esibito sarebbe quindi solo frutto di una correlazione sfruttata fortuitamente dai modelli, e non rappresenterebbe una vera comprensione semantica.File | Dimensione | Formato | |
---|---|---|---|
Tesi_Magistrale (8).pdf
non disponibili
Dimensione
3.67 MB
Formato
Adobe PDF
|
3.67 MB | Adobe PDF |
I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/20.500.14240/9679