Having may things to learn may be a simpler task to a neural network than learning just one (for example: learning to classify all ten number figures may result simpler than learning to classify even and odd figures). This study's objective is to observate to which extent training on a more specific task may improve a neural network's performances on a more general task, also exploring the case of artificial adataset (teacher-student).
Per una rete neurale avere tante cose da imparare può essere un campito più semplice che impararne una sola (ad esempio: imparare a distinguere tutte le cifre potrebbe essere più semplice rispetto all'imparare a distinguere cifre dispari e pari). L'obiettivo di questo studio è osservare fino a che punto l'allenamento su una classificazione più approfondita può migliorare le performance di una rete neurale totalmente connessa su un compito più generale, indagando anche il caso di dataset artificiali (teacher-student).
Comprendere il ruolo della granularità di label nei problemi di classificazione supervisionata
MONACI, LUCA
2020/2021
Abstract
Per una rete neurale avere tante cose da imparare può essere un campito più semplice che impararne una sola (ad esempio: imparare a distinguere tutte le cifre potrebbe essere più semplice rispetto all'imparare a distinguere cifre dispari e pari). L'obiettivo di questo studio è osservare fino a che punto l'allenamento su una classificazione più approfondita può migliorare le performance di una rete neurale totalmente connessa su un compito più generale, indagando anche il caso di dataset artificiali (teacher-student).File | Dimensione | Formato | |
---|---|---|---|
894101_presentazionetesi.pdf
non disponibili
Tipologia:
Altro materiale allegato
Dimensione
1.52 MB
Formato
Adobe PDF
|
1.52 MB | Adobe PDF |
I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/20.500.14240/81624