Quantum computing has significant applications in various fields, including artificial intelligence and machine learning, where it is expected to offer significant advantages in terms of speed and model accuracy. Among the most fascinating techniques in the field of quantum machine learning are quantum kernel, which calculate the similarity between two points not through the Euclidean distance in the original feature space, but by transforming these features into a dataset and encoding them in the state of a quantum system to compute the similarity between pairs of data in that Hilbert space. This technique can reveal particular relationships and patterns in data that we would not be able to perceive with classical techniques and kernels. Despite the potential advantages of quantum kernels in certain artificial tasks, the practical use cases where their utilization can offer an advantage are limited. One of these potential problems is anomaly detection in data generated by collisions within the Large Hadron Collider (LHC) accelerator. This use case is of particular interest in the field of high-energy physics, both due to its extreme computational complexity and because problems whose data is generated by a quantum process, such as in this case, may have a structure that can be easily captured by a quantum kernel. However, the use of these techniques requires the selection of the quantum kernel structure, a choice that is not always possible to make based solely on the dataset. The thesis proposes a comparison between the state of the art anomaly detection techniques for LHC data, currently addressed using quantum kernels whose structure is determined through educated guesses, and automatic techniques for structure selection. The latter are based on setting up an optimization problem that generates the structure of a quantum kernel and iteratively modifies it based on a cost function, which represents the empirical error with respect to a specific dataset and is minimized. This approach requires a dataset, even synthetic, to guide the optimization. The quantum kernels generated by this tested process show comparable or superior precision compared to the results obtained from the state of the art in the literature, without having to make assumptions about the problem structure.

Il calcolo quantistico ha significative applicazioni in vari campi, inclusa l'intelligenza artificiale e l'apprendimento automatico, dove ci si aspetta offra vantaggi significativi in termini di velocità e accuratezza dei modelli. Tra le tecniche più affascinanti nel campo dell'apprendimento automatico quantistico ci sono i kernel quantistici, che calcolano la similarità tra due punti non attraverso la distanza euclidea nello spazio delle caratteristiche originale, ma trasformando queste caratteristiche in un dataset e codificandole nello stato di un sistema quantistico per calcolare la similarità tra coppie di dati in quello spazio di Hilbert. Questa tecnica può rivelare relazioni e pattern particolari nei dati che non saremmo in grado di percepire con tecniche e kernel classici. Nonostante i potenziali vantaggi dei kernel quantistici in determinati compiti artificiali, i casi d'uso pratici in cui la loro utilizzazione può offrire un vantaggio sono limitati. Uno di questi problemi potenziali è la rilevazione di anomalie nei dati generati dalle collisioni all'interno dell'acceleratore Large Hadron Collider (LHC). Questo caso d'uso è di particolare interesse nel campo della fisica ad alta energia, sia per la sua estrema complessità computazionale sia perché i problemi i cui dati sono generati da un processo quantistico, come in questo caso, possono avere una struttura che può essere facilmente catturata da un kernel quantistico. Tuttavia, l'uso di queste tecniche richiede la selezione della struttura del kernel quantistico, una scelta che non è sempre possibile fare basandosi esclusivamente sul dataset. La tesi propone un confronto tra le tecniche di rilevazione di anomalie all'avanguardia per i dati del LHC, attualmente affrontate utilizzando kernel quantistici la cui struttura è determinata attraverso ipotesi informate, e le tecniche automatiche per la selezione della struttura. Queste ultime si basano sulla creazione di un problema di ottimizzazione che genera la struttura di un kernel quantistico e la modifica iterativamente in base a una funzione di costo, che rappresenta l'errore empirico rispetto a un dataset specifico e viene minimizzata. Questo approccio richiede un dataset, anche sintetico, per guidare l'ottimizzazione. I kernel quantistici generati da questo processo di test mostrano una precisione comparabile o superiore rispetto ai risultati ottenuti dagli studi all'avanguardia nella letteratura, senza dover fare ipotesi sulla struttura del problema.

Apprendimento automatico quantistico non supervisionato applicato ai dati LHCb

SENESE, ANDREA
2022/2023

Abstract

Il calcolo quantistico ha significative applicazioni in vari campi, inclusa l'intelligenza artificiale e l'apprendimento automatico, dove ci si aspetta offra vantaggi significativi in termini di velocità e accuratezza dei modelli. Tra le tecniche più affascinanti nel campo dell'apprendimento automatico quantistico ci sono i kernel quantistici, che calcolano la similarità tra due punti non attraverso la distanza euclidea nello spazio delle caratteristiche originale, ma trasformando queste caratteristiche in un dataset e codificandole nello stato di un sistema quantistico per calcolare la similarità tra coppie di dati in quello spazio di Hilbert. Questa tecnica può rivelare relazioni e pattern particolari nei dati che non saremmo in grado di percepire con tecniche e kernel classici. Nonostante i potenziali vantaggi dei kernel quantistici in determinati compiti artificiali, i casi d'uso pratici in cui la loro utilizzazione può offrire un vantaggio sono limitati. Uno di questi problemi potenziali è la rilevazione di anomalie nei dati generati dalle collisioni all'interno dell'acceleratore Large Hadron Collider (LHC). Questo caso d'uso è di particolare interesse nel campo della fisica ad alta energia, sia per la sua estrema complessità computazionale sia perché i problemi i cui dati sono generati da un processo quantistico, come in questo caso, possono avere una struttura che può essere facilmente catturata da un kernel quantistico. Tuttavia, l'uso di queste tecniche richiede la selezione della struttura del kernel quantistico, una scelta che non è sempre possibile fare basandosi esclusivamente sul dataset. La tesi propone un confronto tra le tecniche di rilevazione di anomalie all'avanguardia per i dati del LHC, attualmente affrontate utilizzando kernel quantistici la cui struttura è determinata attraverso ipotesi informate, e le tecniche automatiche per la selezione della struttura. Queste ultime si basano sulla creazione di un problema di ottimizzazione che genera la struttura di un kernel quantistico e la modifica iterativamente in base a una funzione di costo, che rappresenta l'errore empirico rispetto a un dataset specifico e viene minimizzata. Questo approccio richiede un dataset, anche sintetico, per guidare l'ottimizzazione. I kernel quantistici generati da questo processo di test mostrano una precisione comparabile o superiore rispetto ai risultati ottenuti dagli studi all'avanguardia nella letteratura, senza dover fare ipotesi sulla struttura del problema.
ENG
Quantum computing has significant applications in various fields, including artificial intelligence and machine learning, where it is expected to offer significant advantages in terms of speed and model accuracy. Among the most fascinating techniques in the field of quantum machine learning are quantum kernel, which calculate the similarity between two points not through the Euclidean distance in the original feature space, but by transforming these features into a dataset and encoding them in the state of a quantum system to compute the similarity between pairs of data in that Hilbert space. This technique can reveal particular relationships and patterns in data that we would not be able to perceive with classical techniques and kernels. Despite the potential advantages of quantum kernels in certain artificial tasks, the practical use cases where their utilization can offer an advantage are limited. One of these potential problems is anomaly detection in data generated by collisions within the Large Hadron Collider (LHC) accelerator. This use case is of particular interest in the field of high-energy physics, both due to its extreme computational complexity and because problems whose data is generated by a quantum process, such as in this case, may have a structure that can be easily captured by a quantum kernel. However, the use of these techniques requires the selection of the quantum kernel structure, a choice that is not always possible to make based solely on the dataset. The thesis proposes a comparison between the state of the art anomaly detection techniques for LHC data, currently addressed using quantum kernels whose structure is determined through educated guesses, and automatic techniques for structure selection. The latter are based on setting up an optimization problem that generates the structure of a quantum kernel and iteratively modifies it based on a cost function, which represents the empirical error with respect to a specific dataset and is minimized. This approach requires a dataset, even synthetic, to guide the optimization. The quantum kernels generated by this tested process show comparable or superior precision compared to the results obtained from the state of the art in the literature, without having to make assumptions about the problem structure.
IMPORT DA TESIONLINE
File in questo prodotto:
File Dimensione Formato  
811634_quantumunsupervisedlearningappliedtolhcb.pdf

non disponibili

Tipologia: Altro materiale allegato
Dimensione 1.97 MB
Formato Adobe PDF
1.97 MB Adobe PDF

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14240/101394