La UPV treballa per a generar intel·ligència artificial amb menys biaixos de gènere

Han detectat que aquests models de resposta automàtica reprodueixen les desigualtats de la societat

Interfaç d'una intel·ligència artificial / À Punt NTC

La intel·ligència artificial interpreta, processa i raona dades com si fora un ésser humà, però no hi ha intel·ligència emocional darrere. I de moment, amb molts esforços, diferencia entre el que és ètic i el que no ho és. Un exemple d’açò el dona la catedràtica d’Administració Electrònica de la Universitat Politècnica de València, Núria Lloret, que explica, en declaracions a À Punt, que si busques imatges de persones amb discapacitat, les que et mostra la màquina tenen una “connotació negativa”, del que la mateixa IA no n’és conscient.

En aquest sentit, la doctora en Psicologia Social del grup de treball Valgrai de la UPV, Berta Chulvi, indica que quan una persona utilitza un estereotip mentre parla pot adonar-se'n en el mateix moment i demanar perdó, però “el model no sentirà mai que ha dit alguna cosa que no està bé”.

Ningú dubta del salt tecnològic que representa la intel·ligència artificial, però el debat ara està en la qüestió ètica, és a dir, com fa servir les dades que li proporcionem i com evitar els biaixos de gènere i diversitat que genera. Lloret afirma que no tot el que genera la IA és real i que cal parar atenció a la informació falsa. Marta Iranzo, presidenta de l’Associació d’Empresàries i Professionals de València, denuncia que les respostes que dona són parcials. “No parla de dones perquè no té aquest registre”. 

La intel·ligència artificial treballa amb el machine learning, l'aprenentatge automàtic, i aprén de les dades que hi ha en la xarxa, explica Lloret, i com que les dades que hi ha en internet són esbiaixades, la informació que generen aquestes màquines també ho és. Com diu el catedràtic del Departament de Sistemes Informàtics i Computació de la UPV i investigador en Valgrai, Paolo Rosso, les respostes que genera un model d’intel·ligència artificial “són un espill de nosaltres mateixos”. Per això, si no hi ha dades sobre dones en internet, no pot agarrar-les per a generar-ne informació, assenyala Iranzo. Per això, cal un ús responsable d'estos sistemes i ferramentes que aporten respostes de manera automàtica, ressalten les veus expertes. 

Diversos departaments de la Universitat Politècnica de València treballen per a emetre un diagnòstic d’aquesta realitat i per una intel·ligència artificial inclusiva. Analitzen, etiqueten i entrenen la IA per a reduir aquest biaix. I reivindiquen el paper de les dones en el disseny d'aquestes ferramentes que, segons Rosso, en només un any han avançat prou en igualtat i diversitat, tot i que encara estan molt desequilibrades.  

També reclamen un desenvolupament de la regulació que ja s'ha aprovat al Parlament Europeu, és a dir, la primera llei d'intel·ligència artificial en el món que regula formalment aquesta matèria. 

També et pot interessar

stats