In questa tesi vengono analizzate tecniche di addestramento alternativo di LLM, tra cui Contrastive Learning e Knowledge Distillation su task di generazione di testo italiano, partendo dal formalismo logico DRS in versione SBN. Verranno anche analizzate e valutate le performance dell'utilizzo coordinato delle due tecniche sopra citate, e mostrate le generazioni delle varie sperimentazioni. Per effettuare la valutazione verranno utilizzate metriche automatiche tra cui BLEU e BERTScore. Ci si aspetta che i modelli addestrati con queste tecniche, performino meglio rispetto al modello addestrato in maniera tradizionale.

Contrastive Learning per l’Addestramento di un Sistema Neurale per la Generazione del Linguaggio Naturale

NINIVAGGI, SAVERIO
2022/2023

Abstract

In questa tesi vengono analizzate tecniche di addestramento alternativo di LLM, tra cui Contrastive Learning e Knowledge Distillation su task di generazione di testo italiano, partendo dal formalismo logico DRS in versione SBN. Verranno anche analizzate e valutate le performance dell'utilizzo coordinato delle due tecniche sopra citate, e mostrate le generazioni delle varie sperimentazioni. Per effettuare la valutazione verranno utilizzate metriche automatiche tra cui BLEU e BERTScore. Ci si aspetta che i modelli addestrati con queste tecniche, performino meglio rispetto al modello addestrato in maniera tradizionale.
ITA
IMPORT DA TESIONLINE
File in questo prodotto:
File Dimensione Formato  
1011273_tesi_ninivaggi.pdf

non disponibili

Tipologia: Altro materiale allegato
Dimensione 1.11 MB
Formato Adobe PDF
1.11 MB Adobe PDF

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14240/106883