Àmbit de la notícia
Informàtic

Quan fem un 'like' treballem per a les GAFAM

Entitat redactora
Colectic
  • Imatge de Gerd Altmann a Pixabay.

El Mobile Social Congress planteja el debat sobre la necessitat de protegir les nostres dades personals utilitzades per les grans tecnològiques i per entrenar algoritmes sovint discriminatoris.

Què passa quan fem un 'like' a les xarxes? "Treballem per a les GAFAM" (Google, Amazon, Facebook, Apple i Microsoft). Així de clara ha sigut la investigadora de la Universitat Jaume I (UJI) Jessica Izquierdo, que ha explicat al Mobile Social Congress organitzat per Setem que "som la mina d'on s’extreu el material preciós que són les dades, però també som els miners perquè som nosaltres els que les fem públiques".

Aquestes dades són infinitament nombroses i generen beneficis multimilionaris quan parlem de xifres com una mitjana de 40.000 cerques per segon a Google o 1.000 milions d’iPhones en actiu. Les grans tecnològiques són les propietaries de l'economia digital, que està basada en l'atenció, és a dir, en el temps que dediquem a cada activitat. Què ens interessa? Quines inclinacions polítiques tenim? Quina orientació sexual? Les GAFAM estan presents en totes les nostres activitats, apunta la ponent.

Ho estan perquè tenen presència en tots els àmbit ja des de les infraestructures amb la producció de dispositius, sistemes de núvol, comerç electrònic, intel·ligència artificial, vehicles no tripulats i, fins i tot, mitjans digitals. També perquè "ens hem definit en relació a la vinculació amb les xarxes", continua Izquierdo: "Parlem d’estar dins o fora d’aquesta societat".

I les tecnològiques contribueixen a que així continuï sent a través dels continguts que creen i que les usuàries i usuaris creem, que "els proporcionen el nostre comportament de consum".

Les GAFAM "tenen el big data al seu adn i s’expandiran a totes les àrees que els permetin seguir obtenint aquesta informació", diu Izquierdo, que explica la incursió de les tecnològiques en l'àmbit dels mitjans de comunicació en l'internet de les coses i de la salut amb sensors òptics i corporals que monitoritzen constants vitals amb l'objectiu d'obtenir dades del nostre cos.

"Registren les nostres vides, les transformen en dades i les converteixen en la seva propietat privada. Mantenir aquest poder és possible gràcies a una falta de regulació", conclou, i es pregunta: "De què mes poden ser propietaris?"

Jose María Enriquez, de la Universidad de Valladolid (UVa), ha fet autocrítica i ha llançat la pilota a les persones consumidores. Considera important que assumim responsabilitat en l'ús de les noves tecnologies per utilitzar conscientment les dades i reduir l'obsolescència percebuda, és a dir, la moda que ens pot fer descartar un dispositiu.

"Pel 2025 es preveu la generació de més de 460 exabytes de dades diàries. El seu emmagatzament suposa més de 830 milions de tones de diòxid de carboni anuals. Però, a banda de les empreses, estem disposades les consumidores a la desconnexió voluntària?", es pregunta.

Algoritmes esbiaixats

Aquestes dades personals que són esbiaixades perquè la societat digital ho és es fan servir per entrenar algoritmes que sovint discriminen les persones pel seu gènere o la seva raça. Una mostra d'això és el procés de selecció que es va fer a Amazon basat en dades dels seus enginyers, la majoria homes, que deia que les dones no eren aptes per la feina.

Lola Burgueño, de la Universitat Oberta de Catalunya (UOC), estudia aquestes conseqüències moltes vegades involuntàries que malmeten la imatge de les empreses i institucions. Un fet cada vegada més atès per les mateixes companyies i les administracions que intenten compensar aquestes dades per evitar biaixos. "Una primera passa és la llei de protecció de dades", concreta.

Davant d'això, demana obrir el sistema d'aprenentatge automàtic d'aquests algoritmes conegut com a 'black box' per la seva opacitat i més poder per a la ciutadania, que es veu obligada a acceptar les 'cookies' i les clàusules per utilitzar els serveis.

Comparteix i difon

Afegeix un nou comentari