The increasing reliance on artificial intelligence in recruitment introduces efficiency and scalability but also raises concerns regarding bias and fairness in hiring decisions. AI-driven job matching and skill extraction systems can inherit and amplify biases present in training data, leading to discriminatory outcomes. This thesis presents a pipeline for generating synthetic resumes in various sets with different characteristics and systematically evaluate bias in AI recruitment models. The pipeline creates controlled, synthetic resumes that allow for testing of AI systems without relying on real personal data, ensuring compliance with privacy regulations such as the AI Act. The generated resumes are used to analyze biases in two key AI components: skill extraction and job matching, using proprietary AI products. Specifically, the study focuses on examining gender bias. The results demonstrate the pipeline’s effectiveness in identifying discrepancies in AI decisionmaking, providing insights into bias mitigation strategies. Additionally, this work lays the foundation for future investigations into other types of bias, for instance, biases related to nationality and language. A practical extension of this research is the development of internal dashboards for continuous bias monitoring, enabling automated, periodic evaluations to track AI model behavior over time.
Il sempre più ampio uso dell'intelligenza artificiale nell'ambito recruiting introduce efficienza e scalabilità, ma solleva anche preoccupazioni riguardo ai bias e all'equità nelle decisioni di assunzione. I sistemi di job matching e di estrazione automatica di skills basati sull'IA possono ereditare e amplificare i bias presenti nei dati di addestramento, portando a risultati discriminatori. Questa tesi presenta una pipeline per generare curriculum sintetici in diversi set con caratteristiche variabili, al fine di valutare sistematicamente i i bias nei modelli di recruiting basati sull'IA. La pipeline crea curriculum sintetici controllati che consentono di testare i sistemi IA senza fare affidamento su dati personali reali, garantendo la conformità alle normative sulla privacy, come l'AI Act. I curriculum generati sono utilizzati per analizzare i pregiudizi in due componenti chiave dell'IA: l'estrazione delle competenze e il job matching, utilizzando prodotti IA proprietari. In particolare, lo studio si concentra sull'esame del pregiudizio di genere. I risultati dimostrano l'efficacia della pipeline nell'individuare discrepanze nel processo decisionale dell'IA, fornendo spunti su strategie di mitigazione di suddetti bias. Inoltre, questo lavoro getta le basi per future indagini su altri tipi di pregiudizi, come quelli legati alla nazionalità e alla lingua. Un'estensione pratica di questa ricerca è lo sviluppo di dashboard che consentono valutazioni periodiche automatizzate dei sistemi di IA per tracciarne il loro comportamento nel tempo.
Affrontare i bias in ambito recruiting tramite AI: Una pipeline per la generazione di CV sintetici
BERNARDI, MARCO
2023/2024
Abstract
Il sempre più ampio uso dell'intelligenza artificiale nell'ambito recruiting introduce efficienza e scalabilità, ma solleva anche preoccupazioni riguardo ai bias e all'equità nelle decisioni di assunzione. I sistemi di job matching e di estrazione automatica di skills basati sull'IA possono ereditare e amplificare i bias presenti nei dati di addestramento, portando a risultati discriminatori. Questa tesi presenta una pipeline per generare curriculum sintetici in diversi set con caratteristiche variabili, al fine di valutare sistematicamente i i bias nei modelli di recruiting basati sull'IA. La pipeline crea curriculum sintetici controllati che consentono di testare i sistemi IA senza fare affidamento su dati personali reali, garantendo la conformità alle normative sulla privacy, come l'AI Act. I curriculum generati sono utilizzati per analizzare i pregiudizi in due componenti chiave dell'IA: l'estrazione delle competenze e il job matching, utilizzando prodotti IA proprietari. In particolare, lo studio si concentra sull'esame del pregiudizio di genere. I risultati dimostrano l'efficacia della pipeline nell'individuare discrepanze nel processo decisionale dell'IA, fornendo spunti su strategie di mitigazione di suddetti bias. Inoltre, questo lavoro getta le basi per future indagini su altri tipi di pregiudizi, come quelli legati alla nazionalità e alla lingua. Un'estensione pratica di questa ricerca è lo sviluppo di dashboard che consentono valutazioni periodiche automatizzate dei sistemi di IA per tracciarne il loro comportamento nel tempo.File | Dimensione | Formato | |
---|---|---|---|
MSC_Thesis___Bernardi-8.pdf
non disponibili
Dimensione
3.59 MB
Formato
Adobe PDF
|
3.59 MB | Adobe PDF |
I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/20.500.14240/164307