Com i per a què funciona el Registre OASI
Comparteix
Una eina d’Eticas Foundation que permet descobrir com s'implementen els algoritmes i el seu impacte social.
Els algoritmes són dispositius de previsió basats en càlculs de probabilitats a partir de dades recopilades. Són usats per a fer recomanacions a les xarxes socials, per l’administració per a la gestió de la població i els serveis socials, per agències de seguretat per a la identificació facial i la vigilància i prevenció de la delinqüència...
Són usos útils, però amb un altíssim impacte social. I això, sumat al poc coneixement que hi ha sobre el funcionament d’aquests sistemes, i al fet que usualment presenten biaixos sistemàtics assenyala la necessitat d’establir un monitoratge exhaustiu o, com a mínim, un ús crític, dels algoritmes.
Conscients d’aquesta urgència, Eticas Foundation va crear el Registre OASI (Observatory of Algorithms with Social Impact), una llista oberta i en constant actualització a disposició de qualsevol persona que vulgui comprovar l’impacte social d’un algoritme i el seu baix, sigui potencial o directament confirmat per una auditoria.
Què són
Els algoritmes funcionen de manera automatitzada mitjançant la intel·ligència artificial. Es basen en càlculs de dades que permeten preveure certes situacions. Això significa que el seu ús pot ser molt ampli, des de detectar malalties i senyals de desastres naturals fins a predir desenvolupaments poblacionals. En aquest espectre, però, és fàcil que els algoritmes presentin discriminacions per gènere, ètnia o edat, i això, al seu torn, té un alt impacte social.
La majoria d’algoritmes usats avui en dia tenen un funcionament de ‘machine learning’, el que significa que ells mateixos recopilen informació nova i s’actualitzen a partir de models estadístics i categories específiques. És a dir, sense la intervenció humana.
Per això, cal tenir procediments per a entendre com treballen aquests dispositius, cosa que, com ja s’ha denunciat en diverses ocasions, és difícil: la realitat és que els algoritmes estan envoltats d’opacitat, sobretot per al públic general. Per això Eticas Foundation advoca per fer-ne auditories per a millorar la seva transparència.
Sobre el Registre OASI
Per les raons esmentades a l’apartat anterior, Eticas Foundation va crear el Registre Oasi, una llista que no fa més que créixer on es recullen els diferents algoritmes existents i s’indiquen diverses categories definitòries.
I es diu que “no fa més que créixer” perquè cada vegada més empreses i institucions treballen amb els algoritmes, per la qual cosa, com indiquen a la seva web “és necessàriament un treball en curs”.
Categories del registre
La llista té una estructura senzilla i intuïtiva. Compta amb 16 columnes. La primera indica el títol de l’algoritme, si se’n coneix el nom, o una petita descripció. La segona, la quarta, la cinquena i la setena columnes fan referència a l’ús que es dona al dispositiu: qui l’ha implementat, a on, i en quin domini (educació, seguretat, infraestructura, serveis socials...) i si té lloc al sector públic o privat. La tercera columna identifica la institució que l’ha creat.
La sisena, vuitena i novena columnes són les que tenen més interès per al conjunt social, perquè indiquen l’objectiu dels algoritmes (perfilat, automatització de tasques, previsió de comportament...) quina classe d’impacte social es produeix a partir de l’algoritme (discriminació socioeconòmica, racial, vigilància d’estat...) i si se n’ha fet ja una auditoria. Als següents apartats es detallen aquestes categories.
Les columnes número deu i onze assenyalen el termini d’implementació de l’algoritme, la dotze, la jurisprudència; i la tretze, si encara està en ús. Les tres últimes columnes ofereixen detalls complementaris: notes addicionals, enllaços i fonts, i quan va ser l’última vegada que es modificà la informació sobre l’algoritme.
Objectiu
La columna ‘Aim’, objectiu, indica el propòsit o la finalitat de l’algoritme. Hi ha diverses categories. ‘Compiling personal data’ indica que el fi del dispositiu és recollir dades personals sobre persones o grups.
És possible que aquest objectiu s’acompanyi de finalitats relacionades amb la previsió de comportaments o el perfilat. ‘Evaluating human behaviour’ i ‘Predicting human behaviour’ indiquen que l’algoritme s’usa per a avaluar o predir el comportament humà. Molt similar, hi ha la categoria ‘Profiling and ranking people’, que utilitza les dades per a fer perfils i ordenacions de grups de persones.
Hi ha algoritmes que s’empren per a analitzar imatges. Són molt usuals aquells relacionats amb l’examinació de cares. Al registre s’indiquen amb les categories ‘Recognising facial features’ (reconèixer trets facials) i ‘Identifying images of faces’ (identificar imatges de cares). També hi ha l’ús ‘Recognising images’, que assenyala que l’algoritme es fa servir per a identificar contingut d’imatges.
Com amb les peces visuals, hi ha dispositius que poden reconèixer sons, el que s’indica al registre a través de l’etiqueta ‘Recognising sonds’. Significa que el sistema pot identificar continguts sonors, com per exemple una gravació d’un animal o d’algú parlant.
La llista d’Oasi també recull algoritmes utilitzats per a automatitzar sistemes. Sota aquest paraigua cau l’etiqueta ‘Automating tasks’, que ve a dir que el dispositiu s’usa per convertir certes tasques en automàtiques. Aquí també s’hi troba el mecanisme del motor de cerca de Google, que aniria indicat amb l’objectiu de ‘Generating online search reasults’. Un altre tipus d’automaització, també utilitzada per cert per Google, és la de traducció, assenyalada al llistat amb l’etiqueta ‘Generating automated translations’.
L’últim objectiu etiquetat al registre és ‘Simulating human speech’, ‘simulació de parla humana’, el que indica que la finalitat de l’algoritme en qüestió és generar sons que simulen la forma en què les persones parlen.
Impacte social
La columna d’impacte social identifica de quines maneres o en quins àmbits o problemàtiques privades o socials afecta la implementació de l’algoritme. Això pot estar directament relacionat amb els objectius de l’algoritme, però també té a veure sovint amb els biaixos de tipus humà.
Per començar, el registre distingeix cinc formes de discriminació, indicades en les etiquetes ‘Gender discrimination’, ‘Racial discrimination’, Religious discrimination’, ‘Socioeconomic discrimination’ i ‘Other kinds of discrimination’, que fan referència a la parcialitat que els algoritmes demostren en termes de gènere, raça, religió, estat socioeconòmic i altres.
També pot ser que aquests dispositius tinguin afectació en les idees i el comportament de les persones que hi interactuen. Per això el llistat inclou etiquetes com ‘Disseminating misinformation’ (dissemina desinformació) o ‘Generating addiction’ (genera addicció), que estan també molt relacionades amb qüestions com la manipulació o el canvi de conducta (‘manipulation / behavioural change’) i la polarització i radicalització social (‘Social polarisation / radicalisation’).
Per acabar, una altra mena d’afectació social detectada pel registre Oasi és aquella relacionada amb la vigilància de la població, indicada en termes de ‘State surveillance’, quan els algoritmes són usats per un estat per a supervisar les persones, i de ‘Threat to privacy’, quan es produeixen violacions de l’esfera privada de la població.
Importància de les auditories
El Registre Oasi també indica si un algoritme ja ha estat auditat o ebcara no. Sabent l’hermetisme que envolta els algoritmes, que en ser capaç d’actualitzar-se reescrivint les seves regles esdevenen desconeguts inclús per les persones que els van programar, Eticas Foundation fa una tasca d’auditoria per a valorar i difondre de quina manera els sistemes algorítmics afecten la ciutadania.
Per a això utilitza sistemes d’avaluació que busquen minimitzar els impactes negatius dels algoritmes, identificant les fonts principals de biaix així com el compliment dels requeriments legals de protecció de dades i privacitat.
Funcionament del buscador del registre
Per a consultar si un algoritme es troba al registre, el dispositiu compta amb un buscador al qual es pot accedir pitjant la lupa a la cantonada dreta de la taula. Si no es coneix el nom de l’algoritme, caldrà escriure algunes paraules clau.
També es pot simplificar la vista amagant algunes de les columnes classificatòries (‘Hide fields’) o filtrant (‘filter’) segons alguna de les categories del registre (paraules clau al títol, termini d’implementació, objectiu, impacte social...). També es poden agrupar els algoritmes de la llista (‘group’) segons les categories, per veure quants algoritmes coincideixen en certes descripcions.
Aquestes eines serveixen per creuar valors trobar algoritmes específics. Per exemple, si a ‘Filter’ s’indica el filtre d’impacte social, ‘Social polarisation / radicalisation’ i a ‘Agrupació’ es demana fer grups segons el domini (‘domain’) apareixeran al domini de ‘communication and media’ els algoritmes de Tik Tok i You Tube.
Per eliminar el filtratge només cal reiniciar la pàgina.
OASI col·laboratiu
Tenint en compte la rapidesa amb la qual es desenvolupen nous algoritmes, Eticas Foundation explica que l’actualització del registre és constant, tant pel que fa a la identificació de nous dispositius com de noves categories.
De fet, per tal de millorar l’abast de l’aplicació, l’entitat anima a tota la població a col·laborar per a mantenir l’eina com més al corrent sigui possible. Per a això, té habilitat un espai on qualsevol persona pot entrar algun algoritme que conegui i enviar-lo a l’equip d’Eticas per a que el valorin i l’incloguin en el registre si s’escau. L’espai permet incloure tota la informació que es conegui referent a les categories del registre.