- PUBLICITAT -

 

Per Tecnonews / AMIC

La Intel·ligència Artificial (IA) ha irromput en diversitat d’indústries a tot el món: des del màrqueting, la justícia o les finances fins a la medicina o els sistemes de seguretat i defensa. A mesura que el seu ús s’expandeix a nous sectors creixen les preocupacions ètiques sobre la seva transparència, el biaix dels algorismes, la privacitat o les tècniques de manipulació, entre altres.

“Diàriament, interactuem amb sistemes de recomanació de IA que ens diuen què veure, què escoltar o què comprar. Malgrat els beneficis que ens aporten, aquests sistemes poden estar esbiaixats en funció de qui ho ha desenvolupat i la seva finalitat”, explica Enric Quintero, CEO i fundador de Datarmony, consultora especialitzada en dades i Intel·ligència Artificial.

Aquest biaix algorítmic, que reflecteix els valors dels humans implicats en la codificació i recol·lecció de dades, pot donar lloc a discriminacions que soscaven la igualtat d’oportunitats i amplifiquen l’opressió. Davant aquest context, institucions governamentals i sector privat avancen cada vegada més cap a un disseny ètic de la IA.

“Encara que els països tenen diferents valors o perspectives sobre l’ús de la Intel·ligència Artificial, tots han de mesurar les seves dimensions ètiques i arribar a un acord en punts comuns relacionats amb la supervisió humana, la protecció de la privacitat, la transparència, el control i l’ús d’algorismes no esbiaixats”, defensa Quintero.

Així han avançat ja els 193 estats membres de la Conferència General de la UNESCO, que just fa un any, el novembre de 2021, van adoptar la Recomanació sobre l’Ètica de la Intel·ligència Artificial, el primer marc normatiu mundial sobre el tema, que protegirà i promourà els drets humans en el món digital.

“El desenvolupament de normatives jurídiques són una bona base per a ajudar les empreses o organitzacions a reduir la injustícia algorítmica i establir un enfocament únic sobre com han de ser els seus sistemes d’Intel·ligència Artificial”, remarca el fundador de Datarmony.

En aquest sentit, Quintero insta les empreses a optar per auditories d’algorismes per a identificar possibles discriminacions o biaixos de les dades. “En l’actualitat ja disposem de les fórmules per a identificar, supervisar i gestionar les incidències derivades dels algorismes, només necessitem la voluntat per part d’empreses i organitzacions per a fer aquest canvi”, afegeix.

Així mateix, remarca la necessitat de “redoblar esforços per a garantir que les noves tecnologies s’utilitzin de manera responsable i en benefici de tota la humanitat; com més aviat millor apliquem pràctiques ètiques, major prosperitat aconseguirem per a tothom”.

- PUBLICITAT -