Youssef M. Ouled: "Ara són les màquines les que s'utilitzen per reproduir la violència racista"
Comparteix
Algo Race genera diàleg, difon informació i fa incidència política en relació a l'ús racista de la intel·ligència artificial.
Algo Race és un projecte que vol generar espais de diàleg, difondre informació i fer incidència política sobre l'ús racista de les tecnologies d'intel·ligència artificial. El periodista i membre de l'equip Youssef M. Ouled aprofundeix en l'objectiu i en els casos concrets en què es donen aquestes discriminacions.
Com neix Algo Race?
Fa més d'un any que vam començar a parlar de la necessitat d'incorporar una mirada antiracista al debat de la intel·ligència artificial. Veiem espais en què participaven expertes en IA o entitats, que ho abordaven des dels drets humans o des dels drets digitals, però es trobava a faltar aquesta perspectiva. Hi havia gent que ho feia a nivell individual però no coneixíem organitzacions que ho estiguessin fent, i al teixit antiracista no era una línia de treball.
Ens vam ajuntar diferents perfils per analitzar quina és la situació de la intel·ligència artificial a Espanya respecte a les poblacions racialitzades.
Quines accions feu?
Analitzem quines són les realitats en què s'utilitzen aquestes tecnologies per afectar les nostres vides. Fem investigació per veure quins són els espais (la policia, l'administració pública, les fronteres...) on s'apliquen aquestes tècniques que reforcen el racisme. Són els mateixos mecanismes racistes sofisticats traslladats a la intel·ligència artificial.
A més, volem armar un argumentari per a la societat civil antiracista que no participa en aquest debat perquè considera que no té els coneixements perquè puguin detectar-ho pel seu compte. També volem fer incidència mediàtica i política.
El projecte té data de caducitat.
Durarà 18 mesos. Durant aquest temps elaborarem materials i els compartirem, farem xerrades i tallers, i volem incidir en un context com la regulació que està fent la Unió Europea i la regulació que es plantegen algunes formacions polítiques a Espanya.
Hem projectat aquest pla de treball i tenim aquest pressupost de la Fundació per la Promoció i la Iniciativa per una Societat Oberta, però això no vol dir que després no seguim funcionant.
La intel·ligència artificial és racista? Com podem fer que no ho sigui?
La creencia que la IA és neutral i que no pot cometre errors li dona una legitimitat absoluta. Si del que estem parlant és d'una sèrie d'algoritmes programats per persones en un context cultural que és masclista i racista difícilment podem parlar d'una IA neutral.
Per exemple, el reconeixement facial s'ha programat i testejat amb persones blanques i nombrosos informes diuen que discriminen persones racialitzades, especialment dones. Això fa que hi hagi rostres que s'associen a determinades conductes i això té conseqüències com assumir com a criminals les persones negres.
No és la tecnologia, és la societat qui és racista.
Si alimentes aquests programes de predicció del comportament delictiu amb dades oficials i sabem que als barris obrers migrants és on més registres, identificacions i presència policial hi ha, hi ha un biaix, perquè enviar la policia a un lloc i no a un altre és una decisió política. El racisme institucional que decideix a qui s'ha de controlar es tradueix en aquesta programació.
No és un biaix de la persona que programa sinó del racisme estructural i mentre això sigui així és difícil que la IA no sigui racista.
És el que passa amb la tecnologia que es vol implementar a les fronteres.
La recollida de dades biomètriques no és només discriminació perquè vulneri drets sinó perquè vivim en un context que decideix qui té dret a moure's. És a dir, la pròpia lògica de reforçar les fronteres és racista més enllà de la intel·ligència artificial. Que hi hagi una frontera, que sigui tan violenta i que generi tantes morts és racista.
Però no es tracta de dir que la IA no serveix, hi ha molts usos que ens ajuden a millorar les nostres vides.
A vegades sembla que s'utilitza només als Estats Units o al nord d'Europa, però aquí també l'utilitzem.
Aquí hi ha programes com l'exemple de l'ingrés mínim vital, que t'exclou si no resideixes a Espanya des de fa més d'un any, hi ha càmeres de reconeixement facial a l'estació de Méndez Álvaro de Madrid...
Al Mobile World Congress fan servir reconeixement facial.
Tenen el poder de decidir sobre la teva intimitat i busquen la manera que et vegis obligat a registrar-te. Ho gestiona una empresa externalitzada que està a Hong Kong. Diuen que eliminaran les dades, però no sabem fins a quin punt. Hi ha una falta de transparència enorme i és un escrutini de la teva vida.
El programari lliure pot ser una eina contra això?
Ens permet veure com està programat, però quin accés tenen les organitzacions antiracistes a participar en aquesta tecnologia? Aquest coneixement no es facilita. El debat està atomitzat, és tècnic i especialitzat, i això impedeix la participació.
Cal més presència de persones racialitzades a les empreses d'IA?
Programen homes i blancs. Evidentment, si hi ha més dones racialitzades permet donar-li una altra mirada. Però el que cal és una participació de les organitzacions. Si existís una forma de consultar, de generar espais participatius, s'evitarien moltes coses. Si el que fa la policia és entrenar un algoritme a través de dades que ja té, per molt que el policia que els introdueix sigui racialitzat, no depèn d'ell. No depèn tant de la persona sinó del fet que hi hagi més transparència.
Com més saps, més por fa?
No. Vam fer una trobada amb organitzacions antiracistes i deien: "És el mateix de sempre, només que en compte de fer-ho la policia, ho fa un programa". Es sofistica i la responsabilitat es col·loca en la tecnologia. Tu ja ni tan sols pots enfrontar-te a la persona perquè tens un programa. Ara són les màquines les que s'utilitzen per reproduir la violència racista. És un altre espai on s'ha de donar la batalla. Estem verds perquè hi ha molt desconeixement. I d'aquí neix Algo Race.
Afegeix un nou comentari