Tica Font: "La tecnologia no pot decidir qui viu i qui mor"

LaviniaNext
Autor/a: 
Jorge Salas
Tica Font, del Centre Delàs, és una de les veus més autoritzades per tractar el tema de les armes autònomes. Font: Tica Font
Tica Font, del Centre Delàs, és una de les veus més autoritzades per tractar el tema de les armes autònomes. Font: Tica Font
Els sistemes d'armament autònoms han estat un tema de creixent preocupació en l'àmbit de la seguretat i els drets humans. Font: #StopKillerRobots
Els sistemes d'armament autònoms han estat un tema de creixent preocupació en l'àmbit de la seguretat i els drets humans. Font: #StopKillerRobots
El Centre Delàs és part activa de la campanya internacional #StopKillerRobots. Font: #StopKillerRobots
El Centre Delàs és part activa de la campanya internacional #StopKillerRobots. Font: #StopKillerRobots

Tica Font: "La tecnologia no pot decidir qui viu i qui mor"

Autor/a: 
Jorge Salas
LaviniaNext

Resum: 

El Centre Delàs és part activa de la campanya internacional #StopKillerRobots, que demana la prohibició de sistemes d'armaments autònoms que poden prendre totes les decisions.

Els sistemes d'armament autònoms han estat un tema de creixent preocupació en l'àmbit de la seguretat i els drets humans. Aquestes armes, capaces de prendre decisions i dur a terme accions letals sense intervenció humana, plantegen qüestions ètiques i legals profundes. Com seria un món en el qual les màquines poguessin decidir qui viu i qui mor?

La campanya #StopKillerRobots vol mobilitzar a la societat i pressionar als governs perquè prenguin mesures abans que sigui massa tard. Es tracta d'un moviment internacional en què està fortament implicat el Centre Delàs d'Estudis per la Pau. Una de les seves fundadores, Tica Font, és també una de les veus més autoritzades per a tractar el tema de les armes autònomes.

Experta en economia de defensa, comerç d'armes, pressupostos de defensa i indústria militar, Font té molt clara la urgent necessitat de detenir el desenvolupament i el desplegament d'aquestes armes. Per això, el primer és conscienciar a la societat i convertir el debat en una lluita global: "cal posar el tema damunt de la taula".

En què es diferencia un sistema d'armament autònom i un automàtic?

Els autònoms són sistemes on en cap moment un humà ha pres la decisió de si s'ha de matar, sinó que ha estat un ordinador el que ha identificat un objectiu, ha fet un seguiment, un balanç d'actuació i ha decidit disparar o no. Cap humà ha entrat en aquestes fases.

En canvi, les armes automàtiques tenen el sistema de decisions molt més programat, amb menor marge d'error; es programen com una rentadora. Als sistemes autònoms, els marges d'actuació són amplis i molt discrecionals: és la presa de decisions que farà un ordinador de manera autònoma.

És com si l'ordinador tingués pràcticament tot el control.

Exacte, tot. L'únic control humà que hi ha hagut ací és dissenyar el programa, el sistema i introduir possibles objectius. Després, els ordinadors decidiran què fer, com fer-ho, quan fer-ho, etcètera.

El Centre forma part de la campanya internacional #StopKillerRobots, que demana la prohibició d'aquestes armes. Quin és el vostre paper?

Estem participant en els debats internacionals, i en Espanya tenim l'objectiu d'anar creant sensibilització, de convertir-ho en un tema en el qual la població s'hagi de posicionar. També intentem fer campanya en universitats —sobretot ens adrecem a facultats de dret i d'enginyeria informàtica—.

I hi ha un altre focus d'acció, que és el de fer pressió en el govern. A vegades fem sessions a la comissió de defensa amb alguns parlamentaris; i també intentem mantenir relació en l'ambaixador espanyol que porta aquest tema per fer-li veure que hi ha societat ací que s'hi oposa.

Quines són les implicacions ètiques de l'ús d'aquests sistemes?

Primer, els algoritmes de la intel·ligència artificial són segurs com els d'una rentadora? Els seus algoritmes són molt precisos: no hi ha improvisació, la rentadora no decideix si eixa roba que has introduït ha de tindre o no centrifugat. La màquina està programada per executar passos molt establerts i són algoritmes exactes.

Per contra, els de la intel·ligència artificial no són algoritmes exactes. Tots hem utilitzat les traduccions de Google, però també tots sabem que, un cop el text és traduït, l'has de revisar; t'ha ajudat a fer la traducció més ràpida, però sempre hi ha errors. Per tant, estem fent servir una intel·ligència artificial que intrínsecament sempre pot tindre errors i el resultat final, en el cas de les armes, pot suposar la mort d’algú.

En l'àmbit jurídic, com es podria avaluar tot això? I si es produeix un error?

Aquests algoritmes de presa de decisió no poden respectar els pilars del dret internacional. Si hi ha un error, en qui recaurà la responsabilitat jurídica i penal? Quin càstig li poses a una màquina? Enviar-la a un punt verd? Darrere de la presa de decisió de si algú ha de morir ha d'haver-hi un humà, i hem de poder tindre una cadena de responsabilitats plenament establerta.

"Si hi ha un error, en qui recaurà la responsabilitat jurídica i penal?"

Tampoc compleixen el principi de distinció: els ordinadors han de ser capaços de distingir entre un pastor que té un kalàixnikov i un talibà que vol fer un atac; però també han de poder desxifrar les emocions, i açò és impossible ara per ara. I és el mateix si parlem de proporcionalitat, perquè l'ordinador ha de fer un balanç de quantes víctimes col·laterals pot executar; són judicis de valor i de caràcter psicològic, i un ordinador no pot fer-los.

Ja s'està utilitzant aquest tipus d'armament?

Sabem què s'està desenvolupat? Sí. Sabem que hi ha prototips? També. Jo quasi asseguraria que en Ucraïna s'han usat drons armats de manera autònoma, però encara no tinc treballs sobre el terreny.

Quina és la situació del debat a escala internacional?

A l'assemblea general de Nacions Unides hi ha hagut un debat sobre aquest tema, i inclús els països industrialitzats estan d'acord en el fet que s'ha de reflexionar. Ningú diu que no puguin haver-hi drons armats, però que sempre hi hagi un humà prement el botó, prenent la decisió de si es dispara o no: que no sigui l'ordinador el que ho decideixi, sinó que ho decideixi un humà.

El camí serà molt llarg perquè en aquests deu anys tot el que s'ha aconseguit és que diguin: "sí, d'aquest tema hem de reflexionar". I respecte a la prohibició —que és el que demana la societat civil—, la realitat és que cap dels països industrialitzats que estan desenvolupant projectes d'armament en aquestes tecnologies està a favor de limitar.

I quins són eixos països?

Tots els occidentals, Estats Units i, de països no occidentals, per exemple, tindríem Israel, Iran, Turquia, Rússia, Xina... Tots consideren que no s'han de posar limitacions en el desenvolupament d'aquestes tecnologies. Fins que no passi alguna cosa i un gruix important de la humanitat faci un clam mundial dient "això no pot ser"... doncs anirem veient que la cosa costa.

Creus que la societat és conscient de la dimensió d'aquest problema?

No, no és conscient i jo crec que en la societat —i sobretot també en el món jove— hi ha fascinació per la tecnologia, i això fa difícil aquesta reflexió. No estem dient que hem de limitar el nombre d'hores de treball en el mòbil, ni que s'han de limitar les xarxes socials o que s'han de posar normes. Nosaltres estem dient que la tecnologia no pot decidir qui viu i qui mor: això ho ha de decidir un humà.

És imprescindible mobilitzar la societat perquè els governs moguin fitxa?

En general, tots els governs es mouen per les enquestes d'opinió i, si aquest tema no mobilitza a la gent, per què s'oposarà el govern si la seva població no està en contra? Aquest és un element important. S'ha de posar el tema damunt de la taula, ara que la gent comença a estar alerta sobre el que suposa l'ús de la intel·ligència artificial en moltes qüestions. Però el debat sobre utilitzar aquesta tecnologia per matar encara no forma part de les preocupacions de la societat; fins que la gent no s'escandalitza per alguna cosa, eixa cosa no existeix.

"El debat sobre utilitzar aquesta tecnologia per matar encara no forma part de les preocupacions de la societat".

Tampoc hi ha consciència sobre aquesta qüestió en l'àmbit europeu?

El sorprenent és que és la primera vegada que tenim un pressupost de la Unió Europea amb un capítol destinat a defensa, i aquest capítol té dues fonts econòmiques: una línia per subvencionar als Estats la compra d'armament i una altra de finançament per ajudar les empreses a desenvolupar tecnologies per a usos militars. La Unió Europea fa una llista de quin tipus d'investigacions de caràcter militar vol que es portin a terme i les subvenciona. Aquesta és la realitat.

A qui beneficia que no es prohibeixi aquest tipus d'armament?

En general, podríem dir que són els països industrialitzats els que surten —i sortiran— beneficiats. I aquell que desenvolupi prototips nous amb la tecnologia d'intel·ligència artificial tindrà domini sobre l'economia. Per tant, és una manera de buscar preeminència econòmica mundial, de fer que els altres països depenguin de tu.

Aleshores, si és una qüestió econòmica, com es pot aturar a les institucions?

Hi ha també molts països que no desenvolupen aquesta tecnologia ni la desenvoluparan, que simplement són compradors. El nostre treball és intentar que hi hagi suficients d'aquests països que, dins de les assemblees de Nacions Unides, facin pressió.

És el que hem pogut veure quan en 2017 es va aprovar el tractat que prohibeix l'ús d'armament nuclear. Doncs els estats que tenen i els occidentals no es van adherir i segueixen a la seva, però hi ha altres països que no, que estan a favor d'aquest tractat. És important veure que a les Nacions Unides no tot ho controlen els països occidentals. Aquesta és l'esperança: hi ha països —no dels més pobres, dels intermedis— que poden ser rellevants.

Afegeix un comentari nou