Quim Salvi (UdG), Albert Sabater (OEIAC) i la responsable del projecte, Alícia de Manuel [Foto: Govern]

El Departament de Polítiques Digitals i Territori i la Universitat de Girona han presentat el model d’autoavaluació organitzativa sobre l’ús ètic de dades i sistemes d’Intel·ligència Artificial (IA) per a totes les organitzacions que desenvolupen i utilitzen sistemes d’aquesta tecnologia. Es tracta del model PIO (Principis, Indicadors i Observables), compta amb el suport de la Fundació i2CAT i s’emmarca dins l’estratègia Catalonia.AI.

El model PIO pretén sensibilitzar i conscienciar les organitzacions que usen sistemes d’IA sobre la importància d’aplicar principis ètics en el seu ús i identificar accions per valoritzar i avançar en l’ús ètic de les dades i sistemes d’IA. En el procés d’aplicar-se, el PIO s’enfoca en la pregunta “Ho hem fet?” com a base per a fer l’autoavaluació. Aquest autoexamen gira al voltant de set eixos, i que són Transparència; Justícia i equitat; Seguretat i no maleficència; Responsabilitat i retiment de comptes; Privacitat; Autonomia i Sostenibilitat.

Les respostes que recull el sistema són binàries (sí/no) i a partir d’elles aconsegueix les mètriques per a cadascun dels set principis que avalua i en genera una insígnia de qualitat per a l’organització. Serà aquesta insígnia la que serveixi com a imatges gràfica del model d’autoavaluació PIO representant l’adequació de les dades i els sistemes d’IA segons els set principis.

WhatsAppEmailTwitterFacebookTelegram