Il tema dell'intelligenza artificiale è diventato di maggiore rilevanza nel corso degli ultimi decenni alla luce dei considerevoli progressi messi in pratica in ambito tecnologico e informatico. Benché l'idea di progettare una macchina che replicasse l'intelligenza dell'uomo possa essere ricondotta ai tempi di Descartes e Leibniz, l'obiettivo ha assunto maggiore rilevanza dalla nascita dell'informatica contemporaneamente intesa, vale a dire dai primi elementi di calcolo simbolico introdotti da Alan Turing. Nel primo capitolo del presente elaborato ci si pone l'obiettivo di dare una panoramica introduttiva sull'intelligenza artificiale, ci si sofferma su quali possano essere le caratteristiche fondamentali e come distinguerla dall'intelligenza dell'uomo. Sono citati degli esempi dai quali comprendere quali siano finora i traguardi raggiunti e allo stesso tempo i limiti ancora invalicabili e viene affrontato il tema intorno all'etica che può derivare dall'introduzione dell'intelligenza artificiale nella società. Il secondo capitolo è incentrato sullo studio degli algoritmi in ambito grafico, in particolare nel riconoscere le regole logiche all'interno delle RPM (Raven Progressive Matrix). Sulla base delle matrici di Raven, introdotte dallo psicologo John Raven nel 1936 per il test sul quoziente intellettivo, è stato teorizzato nel 1990 un formalismo logico mediante il quale, nel 2018 e nel 2019, sono stati realizzati data-set con all'interno milioni di matrici di questo tipo. Esse sono matrici quadrate di ordine $3$ nelle quali sono visibili i pannelli fino al pannello centrale nella terza riga e all'utente è dato di inserire il pannello mancante da un set di 8 risposte possibili di modo che sia seguito uno specifico filo logico. Si è deciso di misurare l'intelligenza artificiale utilizzando uno strumento inizialmente rivolto all'uomo. Salvo l'algoritmo citato nell'ultimo paragrafo, si rientra nel contesto del supervised learning, dunque in presenza di un training set con specifiche RPM e di un test set con all'interno matrici differenti da classificare. Nel terzo capitolo viene tracciata una panoramica teoricamente più dettagliata sul reinforcement learning. Sono dapprima introdotti gli elementi fondamentali, come il concetto di reward o di funzione valore, per arrivare all'equazione di Bellman. Introdotta da Richard Ernest Bellman nel 1957 per la programmazione dinamica, ha riavuto seguito nel contesto contemporaneo del reinforcement leaning e viene utilizzata per calcolare in modo ricorsivo il valore in uno stato, vale a dire il valore atteso della somma dei reward futuri in quello specifico stato. È in seguito data una classifica generica degli algoritmi del reinforcement learning e sono descritti alcuni esempi, come il Q-learning o il SARSA. Il capitolo si conclude con l'introduzione del DQN e una trattazione del DDPG, algoritmi nei quali si combina la programmazione dinamica al contesto del Deep Learning, in particolare rappresentando l'insieme delle coppie stato-azione con una rete neurale. Nel quarto capitolo viene descritto più dettagliatamente l'implementazione dell'algoritmo DQN nel 2013 da parte dell'azienda Deepmind e la sua sperimentazione su 49 giochi per la console Atari 2600.
Intelligenza Artificiale Generalizzante: dalle reti neurali a convoluzione all'apprendimento con rinforzo
POLITO, LUIGI
2019/2020
Abstract
Il tema dell'intelligenza artificiale è diventato di maggiore rilevanza nel corso degli ultimi decenni alla luce dei considerevoli progressi messi in pratica in ambito tecnologico e informatico. Benché l'idea di progettare una macchina che replicasse l'intelligenza dell'uomo possa essere ricondotta ai tempi di Descartes e Leibniz, l'obiettivo ha assunto maggiore rilevanza dalla nascita dell'informatica contemporaneamente intesa, vale a dire dai primi elementi di calcolo simbolico introdotti da Alan Turing. Nel primo capitolo del presente elaborato ci si pone l'obiettivo di dare una panoramica introduttiva sull'intelligenza artificiale, ci si sofferma su quali possano essere le caratteristiche fondamentali e come distinguerla dall'intelligenza dell'uomo. Sono citati degli esempi dai quali comprendere quali siano finora i traguardi raggiunti e allo stesso tempo i limiti ancora invalicabili e viene affrontato il tema intorno all'etica che può derivare dall'introduzione dell'intelligenza artificiale nella società. Il secondo capitolo è incentrato sullo studio degli algoritmi in ambito grafico, in particolare nel riconoscere le regole logiche all'interno delle RPM (Raven Progressive Matrix). Sulla base delle matrici di Raven, introdotte dallo psicologo John Raven nel 1936 per il test sul quoziente intellettivo, è stato teorizzato nel 1990 un formalismo logico mediante il quale, nel 2018 e nel 2019, sono stati realizzati data-set con all'interno milioni di matrici di questo tipo. Esse sono matrici quadrate di ordine $3$ nelle quali sono visibili i pannelli fino al pannello centrale nella terza riga e all'utente è dato di inserire il pannello mancante da un set di 8 risposte possibili di modo che sia seguito uno specifico filo logico. Si è deciso di misurare l'intelligenza artificiale utilizzando uno strumento inizialmente rivolto all'uomo. Salvo l'algoritmo citato nell'ultimo paragrafo, si rientra nel contesto del supervised learning, dunque in presenza di un training set con specifiche RPM e di un test set con all'interno matrici differenti da classificare. Nel terzo capitolo viene tracciata una panoramica teoricamente più dettagliata sul reinforcement learning. Sono dapprima introdotti gli elementi fondamentali, come il concetto di reward o di funzione valore, per arrivare all'equazione di Bellman. Introdotta da Richard Ernest Bellman nel 1957 per la programmazione dinamica, ha riavuto seguito nel contesto contemporaneo del reinforcement leaning e viene utilizzata per calcolare in modo ricorsivo il valore in uno stato, vale a dire il valore atteso della somma dei reward futuri in quello specifico stato. È in seguito data una classifica generica degli algoritmi del reinforcement learning e sono descritti alcuni esempi, come il Q-learning o il SARSA. Il capitolo si conclude con l'introduzione del DQN e una trattazione del DDPG, algoritmi nei quali si combina la programmazione dinamica al contesto del Deep Learning, in particolare rappresentando l'insieme delle coppie stato-azione con una rete neurale. Nel quarto capitolo viene descritto più dettagliatamente l'implementazione dell'algoritmo DQN nel 2013 da parte dell'azienda Deepmind e la sua sperimentazione su 49 giochi per la console Atari 2600.File | Dimensione | Formato | |
---|---|---|---|
761140_politoluigi_tesi_lm.pdf
non disponibili
Tipologia:
Altro materiale allegato
Dimensione
4.08 MB
Formato
Adobe PDF
|
4.08 MB | Adobe PDF |
I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/20.500.14240/155610