La intel·ligència artificial com a dilema d’exclusió o d'inclusió

La intel·ligència artificial (IA) s'està convertint en una eina tecnològica cada cop més comuna a la nostra vida quotidiana i el seu ús s'està estenent a una àmplia varietat de camps, des de la medicina fins a la indústria automotriu. S'ha convertit en el revulsiu tecnològic del segle XXI. Aquesta revolució, així com altres tecnologies en desenvolupament com la robòtica, la computació al núvol i l'Internet de les coses, estan transformant disciplines, economies i indústries, i desafiant les idees sobre el que significa ser humà.

Tot i això, aquests avenços també plantegen molts dilemes ètics, que sorgeixen precisament del gran potencial que tenen els sistemes basats en IA per reproduir prejudicis, contribuir a la degradació del clima o, fins i tot, poder arribar a amenaçar els drets humans. Tots aquests riscos s’afegeixen a les desigualtats ja existents a nivell social, desemparant encara més els col·lectius més vulnerables de la nostra societat, plantejant tota una sèrie de desafiaments ètics que hem de controlar de manera immediata per mitigar els danys col·laterals que sens dubte generaran.

Una de les primeres actuacions l'ha fet la UNESCO, en un informe mundial titulat "Replantejar junts els nostres futurs: nou contracte social per a l'educació", liderant iniciatives internacionals orientades a garantir que la ciència i la tecnologia es desenvolupin dins d’un marc ètic. Ja al novembre del 2021 va elaborar la primera norma mundial sobre l'ètica de la intel·ligència artificial: la “Recomanació sobre l'ètica de la intel·ligència artificial”.

Aquest document va ser adoptat pels 193 estats membres de la UNESCO, en un acord, en què la protecció dels drets humans i la dignitat de la persona en són la pedra angular, basada en l'avenç de principis fonamentals com la transparència i l'equitat, recordant sempre la importància de la supervisió humana d’aquests sistemes.

Considero que el fet d'aconseguir una gestió adequada de la IA és un dels reptes més importants del nostre temps, que exigeix un aprenentatge mutu basat les bones pràctiques que sorgeixen de les diferents jurisdiccions de tot el món. La qüestió ja no és si legislar o no sobre la IA i les tecnologies al seu voltant, sinó quina és la millor manera de fer-ho. El desenvolupament de la IA sota un control ètic és estratègic en tant que pot ser utilitzada per prendre decisions que afecten a les persones, però per sobre de tot, pot reproduir estigmes que ja existeixen en la nostra societat. Si aquests sistemes no estan fonamentats sota criteris ètics sòlids, sens dubte reproduiran prejudicis i discriminació, com els que ha comès la pròpia intel·ligència natural humana.

Per preveure'ns d'aquests perills imminents, necessitem detectar els riscos per als col·lectius més vulnerables de la nostra Societat, i trobar-hi solucions aplicables a curt termini. 

Alguns dels riscos que hem d'evitar en vull assenyalar alguns com:
Per començar podem trobar-nos amb filtracions de dades personals. La IA pot processar grans quantitats de dades personals, cosa que sense cap dubte, podria comprometre la privadesa i el benestar de les persones. Per combatre-ho ens caldrà implementar estrictes polítiques de privadesa i seguretat que protegeixin la informació personal, per evitar-ne el risc d’exposició pública.
També podem trobar-nos amb casos de vigilància extrema i manipulació. Organitzacions privades o governamentals poden utilitzar la IA per vigilar-nos i manipular-nos com a ciutadans. Això ens obligarà a regular i supervisar aquesta tasca en la presa de decisions, per garantir la transparència en els algorismes i proporcionar accés a explicacions clares sobre com s'aconsegueix la informació.
La manca de transparència en la supervisó de la intel·ligència artificial avocarà a lo que podríem anomenar com a “Cambres d'eco” i biaixos preconcebuts. L'exposició constant a les mateixes idees i notícies enfortirà els biaixos informatius i limitarà la diversitat de perspectives. Això ens fa que per abordar aquest problema calgui afavorir una diversitat més plural en el disseny i l'entrenament de models d'IA i corregir els biaixos sistemàtics en els seus algoritmes.
També hem de preveure que hi hagi una sobre representació en els models de IA. Aquests models poden no representar adequadament als grups minoritaris i més vulnerables. Per tant, crec que serà imprescindible recopilar dades que siguin més inclusives i equilibrades, tot utilitzant tècniques d'ajustament que ens permetin corregir aquests desequilibris en la representació.
Així mateix, ens podem trobar que disposem d’informació sense pla d'acció. Vendria a ser el fet de tenir dades sense un enfocament clar per gestionar problemes socials, forçant-nos a desenvolupar estratègies i fulls de ruta específics per aplicar els coneixements generats per la IA, en polítiques i programes efectius que alleugereixin el patiment dels col·lectius més vulnerables.
Tot plegat pot semblar aclaparador. I ho és. Per això, tinc el convenciment que l'acció a nivell global ha de ser urgent i profunda en l'àmbit de la formació i el foment d’habilitats, no n'hi ha prou de declarar que la revolució digital ha de tenir l'ésser humà al centre. Cal assegurar-nos que així sigui, desenvolupant ambiciosos programes públics i privats de curta durada, amb un impacte gairebé immediat en competències digitals i analítiques.
La velocitat d’aquest canvi tecnològic ens obliga a actuar sobre les persones per compensar l'automatització de moltes de les tasques tradicionals. Així mateix, les empreses s’hauran de comprometre a impulsar un ús responsable de les dades, així com un disseny obert i auditable dels algorismes que regeixen les decisions dels seus serveis implementats en IA. I tot això sense oblidar que, com a societat, ens urgeix repensar les regles i les institucions adequades per a una societat digitalitzada, amb acords i principis supranacionals sobre privadesa, fluxos de dades i auditoria dels algorismes que no deixin a ningú perdut pel camí.

Josep Giralt Lladanosa
Expresident d'ASPID
Facebook Twitter LinkedIn WhatsApp
Utilitzem cookies pròpies i de tercers per a millorar els nostres serveis i raons tècniques, per a millorar la teva experiència de navegació, per a emmagatzemar les teves preferències i, opcionalment, per a mostrar-te publicitat relacionada amb les teves preferències mitjançant l'anàlisi dels teus hàbits de navegació. Hem inclòs algunes opcions de configuració que et permeten dir-nos exactament les cookies que prefereixes i les que no. Prem ACCEPTAR per a consentir totes les cookies. Prem CONFIGURACIÓ per a decidir les opcions que prefereixes. Per a obtenir més informació sobre les nostres cookies accedeix a la nostra Política de cookies aquí: Més informació
Acceptar Rebutjar Gestionar Galetes