
Foto: Freepik
La Universitat Pompeu Fabra, a través del Grup de Recerca en Web Science and Social Computing (WSSC), del Departament de Tecnologies de la Informació i les Comunicacions, lidera el projecte FINDHR (Fairness and Intersectional Non-Discrimination in Human Recommendation), un consorci d’universitats i empreses que estudia els problemes tècnics, legals i ètics que apareixen en l’ús de la Intel·ligència Artificial (IA).
FINDHR durarà fins el 2025 i pretén mostrar la manera per tal de gestionar els riscos de discriminació d’aquelles aplicacions que fan les recomanacions humanes. Entre elles, destaquen les dels processos de reclutament de candidats a llocs de treball o admissions universitàries.
Aquest projecte s’emmarca dins la Llei d’IA que va dissenyar el 2021 la Comissió Europea per tal de regular la Intel·ligència Artificial i que ha establert un marc per a la governança de les aplicacions d’IA d’alt risc. FINDHR durà terme diferents activitats, com l’estudi de l’ordenació dels candidats i candidates per a un procés de feina o la construcció d’una base de dades de currículums sintètics i una campanya de donació de currículums.
Els socis del projecte són la Universitat d’Amsterdam; la Universitat de Pisa; la Max Planck Society en Privadesa i Seguretat d’Alemanya; l’Algorithm Watch de Suïssa; l’ ÈTIQUES Research and Consulting; l’Adevinta Spain – InfoJobs; la Randstad Netherlands BV; la Radboud University; la Universitat Erasmus de Rotterdam; l’European Trade Union Confederation; la Women in Development in Europe (WIDE+) i la PRAKSIS Association.