Imaxina que un xigante do comercio en liña utiliza un sistema de intelixencia artificial para contratar persoal. Imaxina que o seu modelo ten nesgos de xénero e descualifica as candidatas femininas polo simple feito de ser mulleres. En realidade, non fai falla que o imaxines porque isto é un caso real: o sistema que empregou Amazon entre 2014 e 2015 era claramente discriminatorio. “Para solucionalo, intentaron quitarlle a variable ‘sexo’ ao algoritmo pero o modelo era capaz de sacar información dos currículos e volvía descartar as mulleres”, explica a galega Verónica Bolón, experta en intelixencia artificial. Co obxectivo de que casos como o de Amazon non se volvan repetir, España e Estados Unidos acaban de asinar a Declaración sobre o nesgo algorítmico no mundo do traballo co obxectivo de que os sistemas de intelixencia artificial (IA) non vulneren os dereitos laborais.
“É unha boa noticia que os gobernos se pregunten que problemas hai detrás dos algoritmos, sobre todo cando os nesgos se trasladan ao ámbito laboral e teñen consecuencias nos procesos de contratación ou de ascenso”, sostén Bolón, investigadora do Centro de Investigación en Tecnoloxías da Información e das Comunicacións (CITIC) da Universidade da Coruña (UDC). Isto é, precisamente, o que busca un documento que establece unha clara liña de actuación: definir sistemas automatizados e algoritmos que promovan a equidade. A declaración, asinada este luns pola Ministra de Traballo, Yolanda Díaz, e pola súa homóloga estadounidense, Julie Sue, en Washington, quere sentar as bases de modelos automatizados que respecten a privacidade, as condicións laborais e os dereitos fundamentais dos traballadores. É dicir, de modelos transparentes, éticos e equitativos.
Bolón recoñece que o camiño que abre esta declaración é o mesmo polo que debemos camiñar como sociedade. Con todo, a experta galega insiste en que os nesgos da IA son difíciles de corrixir. “A xente pensa que un algoritmo é obxectivo pero os algoritmos aprenden con datos humanos, e os datos humanos sempre teñen nesgos“, explica a investigadora do CITIC. Ante a imposibilidade de crear modelos perfectos, que non estean condicionados de antemán, Bolón propón un proceso exhaustivo de probas co que se consiga “limpar” o modelo de todos os nesgos posibles. “As persoas que traballamos con intelixencia artificial temos a responsabilidade de probar ben os algoritmos e cerciorarnos de que non son discriminatorios”, apunta. Para Bolón o compromiso non remata aquí: para perfeccionar os sistemas automatizados tamén debe haber unha implicación da sociedade e dos poderes políticos que, segundo a científica galega, deberían darlle visibilidade ao problema e regulalo.
O documento asinado por España e Estados Unidos é, ante todo, unha declaración de intencións para darlle máis dereitos aos traballadores, incluído o ámbito dixital no que se move o mundo laboral actualmente. O informe, por tanto, non é unha longa lista de medidas de obrigado cumprimento, senón unha forma de chamar a atención da comunidade internacional para poñer o foco nun problema de grandes consecuencias: os nesgos algorítmicos. A través deste documento, tanto España como Estados Unidos invitan á reflexión sobre as implicacións éticas da IA, especialmente no eido do traballo. E búscase, tamén, sentar as bases para que os sistemas automatizados non sexan parciais, senón transparentes. E, sobre todo, que non discriminen a ningún traballador por motivos de raza, de sexo, ou de calquera outro nesgo asumido polo sistema.
Malia as boas intencións do documento, sobre todo pola súa vocación internacional, Bolón insiste no importante que é regular a intelixencia artificial. Pon o foco na futura lei europea que pretende regular os modelos algorítmicos. “Son optimista pero é un tema delicado, sobre todo no que respecta á competencia con outros países. Aínda que algúns son moi laxos, creo que fan falla leis para respectar os dereitos da cidadanía”, sostén Bolón, ante as dúbidas que suscita a lei europea como unha forma de limitar o crecemento imparable da IA en comparación con outros xigantes, como China ou incluso Estados Unidos, nos que as regulacións son menos estritas ou inexistentes. Con todo, regular a IA é para Bolón “un reto complicado” porque “as leis sempre van máis lentas que a IA”. E o gran reto está precisamente en que a lei sexa flexible para adaptarse aos cambios imparables das novas tecnoloxías.
Unha situación con tantas ramificacións non é fácil de abordar, aínda que se poñan parches —como a declaración entre Estados Unidos e España— que traten de pulir as deficiencias dos sistemas actuais e avoguen polos dereitos laborais. Con todo, e pese ao peso dos poderes políticos na materia, Bolón cre que é importante implicar a toda a sociedade. “Como persoa podo ter nesgos e prexuízos pero non teño a capacidade de afectar a moita xente. O problema está cando se perpetúan e se magnifican nos sistemas de IA”, engade Bolón. A solución máis factible para a científica galega é empregar cada vez datos máis diversos, corroborar ben o funcionamento dos sistemas, informar á sociedade e ser transparentes. Unha receita tan aparentemente sinxela como complicada de levar a cabo.













