[Foto: Google DeepMind a Unsplash]

Un grup d’investigadors de la Universitat Oberta de Catalunya (UOC) i de la Universitat de Luxemburg pretén posar fi als biaixos nocius i discriminatoris que té la intel·ligència artificial i els models d’IA generativa, com ChatGPT. Per això, han creat LangBiTe, un programa de codi obert per avaluar si compleixen amb les regulacions vigents sobre no-discriminació.

LangBiTe és un programa que es diferencia dels altres pel seu abast i fa un pas endavant, afegint complexitat i detalls al seu funcionament. Aquest projecte ha estat supervisat pel professor dels Estudis d’Informàtica, Multimèdia i Telecomunicació i investigador líder del SOM Research Lab, Robert Clarisó, i per l’investigador de la Universitat de Luxemburg, Jordi Cabot.

Aquest programa nou permet analitzar si una aplicació o una eina que incorpori funcions basades en IA s’adapta als requisits ètics o comunitats d’usuaris concrets de cada institució o organisme. I ho fa incloent biblioteques amb més de 300 instruccions o preguntes que es fan servir per interaccionar amb la IA destinades a mostrar biaixos en els models. Aquestes biblioteques estan especialitzades en segments en concret, com l’edatisme, les preferències polítiques, els prejudicis religiosos, el racisme, el sexisme, la xenofòbia o la LGBTIQA-fòbia.

Aquest projecte permetrà a les eines i les aplicacions complir amb la Llei d’intel·ligència artificial de la Unió Europea (EU AI Act), la qual té l’objectiu de vetllar perquè els nous sistemes amb IA promoguin l’accés equitatiu, la igualtat de gènere i la diversitat cultural. Per això, ja ha estat adoptat per institucions com el Luxembourg Institute of Science and Technology per a avaluar diferents models d’IA generativa populars.

La UOC tractarà la tecnologia en el món rural
WhatsAppEmailTwitterFacebookTelegram