In questa tesi vengono analizzate tecniche di addestramento alternativo di LLM, tra cui Contrastive Learning e Knowledge Distillation su task di generazione di testo italiano, partendo dal formalismo logico DRS in versione SBN. Verranno anche analizzate e valutate le performance dell'utilizzo coordinato delle due tecniche sopra citate, e mostrate le generazioni delle varie sperimentazioni. Per effettuare la valutazione verranno utilizzate metriche automatiche tra cui BLEU e BERTScore. Ci si aspetta che i modelli addestrati con queste tecniche, performino meglio rispetto al modello addestrato in maniera tradizionale.
Contrastive Learning per l’Addestramento di un Sistema Neurale per la Generazione del Linguaggio Naturale
NINIVAGGI, SAVERIO
2022/2023
Abstract
In questa tesi vengono analizzate tecniche di addestramento alternativo di LLM, tra cui Contrastive Learning e Knowledge Distillation su task di generazione di testo italiano, partendo dal formalismo logico DRS in versione SBN. Verranno anche analizzate e valutate le performance dell'utilizzo coordinato delle due tecniche sopra citate, e mostrate le generazioni delle varie sperimentazioni. Per effettuare la valutazione verranno utilizzate metriche automatiche tra cui BLEU e BERTScore. Ci si aspetta che i modelli addestrati con queste tecniche, performino meglio rispetto al modello addestrato in maniera tradizionale.File in questo prodotto:
File | Dimensione | Formato | |
---|---|---|---|
1011273_tesi_ninivaggi.pdf
non disponibili
Tipologia:
Altro materiale allegato
Dimensione
1.11 MB
Formato
Adobe PDF
|
1.11 MB | Adobe PDF |
I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
Utilizza questo identificativo per citare o creare un link a questo documento:
https://hdl.handle.net/20.500.14240/106883