Un debat de fons per una intel·ligència artificial més democràtica

Colectic
La intel·ligència artificial s'utilitza en controls fronterers per discriminar persones migrants. Font: Cottonbro (Pexels)
La intel·ligència artificial s'utilitza en controls fronterers per discriminar persones migrants. Font: Cottonbro (Pexels)

Un debat de fons per una intel·ligència artificial més democràtica

Colectic

Resum: 

Lafede.cat, juntament amb Algorace, Algorights i l’Espai Societat Oberta coorganitza les jornades DAR: Democràcia, Algoritmes i Resistències.

Pot la intel·ligència artificial ser democràtica i respectuosa amb els drets humans?

Són les preguntes que es posaran sobre la taula durant la tercera edició de les Jornades DAR: Democràcia, Algoritmes i Resistències, organitzades per Lafede.cat, juntament amb Algorace, Algorights i l'Espai Societat Oberta, el 26, 27 i 28 de maig.

L'esdeveniment consta de trobades online i presencials a Madrid i Barcelona, i comptarà amb la participació de veus com les de Simona Levi (XNet), Youssef M. Ouled (Algorace), Alberto Álvarez (Observatorio Trabajo, Algoritmo y Sociedad), i entitats internacionals com Al Now, Ada Lovelace Institute, Fundación Eticas o Democratic Society, GHETT'UP i Mijente.

Per aconseguir una intel·ligència artificial més democràtica cal, d'una banda, "accés al coneixement de com es desenvolupa un sistema que tingui aplicació d'intel·ligència artificial" i, d'altra, que hi hagi rendició de comptes perquè hi ha "decisions algorítmiques que no sabem com s'estan prenent", diu Judith Membrives, responsable de digitalització de Lafede.cat.

I afegeix: "Apostem per fer auditories i debats sobre l'automatització o no de certes decisions, per involucrar la ciutadania en la presa de decisions prèvia, i en l'avaluació de l'impacte".

La no automatització com a opció

"La predicció es fa amb estadístiques i una estadística és per definició discriminatòria", afirma Membrives, que explica que una IA sense biaix racista és possible si s'identifica prèviament que s'estan afegint variables que poden desenvolupar decisions racistes. La decisió prèvia també pot ser la no automatització.

Per evitar-ho, calen "uns processos tecnològics més lents dels que tenim i involucrar perfils diversos en la creació". El que és evident és que "en una societat amb una estructura racista i masclista, aquesta es trasllada a la tecnologia, però no només a la IA, fins i tot es trasllada a la mida dels mòbils".

Afegeix un comentari nou