Óscar Cordón participou en Santiago nunhas xornadas de divulgación sobre intelixencia artificial organizadas polo CiTIUS. Fotografía: Andrés Ruiz.

Óscar Cordón participou en Santiago nunhas xornadas de divulgación sobre intelixencia artificial organizadas polo CiTIUS. Fotografía: Andrés Ruiz.

“Se temos unha sociedade máis culta, a intelixencia artificial entenderase mellor”

O catedrático da Universidade de Granada, experto de referencia internacional na disciplina, participou nunha xornada divulgativa no CiTIUS de Santiago

Óscar Cordón García (Cádiz, 1972) está entre o 1% dos investigadores en intelixencia artificial (IA) máis citados do mundo. É catedrático de Ciencias da Computación e Intelixencia Artificial da Universidad de Granada. Traballa, como adoita insistir, “para solucionar problemas” grazas á computación. Desde a ciencia forense ata os estudos de mercado. Unha visión afastada dos malos agoiros que proliferan sobre os perigos desta tecnoloxía, e que non acaban de pasar da ficción á realidade. Precisamente para isto acudiu a Santiago de Compostela, onde participou xunto a outros dous referentes na materia, Enric Trillas e Ramón López de Mántaras, na mesa redonda Ten límites a intelixencia artificial? Hai que poñerllos? organizada polo CiTIUS.

– En que momento se atopa a intelixencia artificial?

– A disciplina xa ten 60 anos, cos seus ciclos positivos e negativos. Agora estamos nun momento de ‘bum’. Hai moitas noticias que teñen moito impacto. Alén dos clásicos, como a máquina que gaña ao humano no xadrez ou noutros xogos para os que teoricamente se precisa a intelixencia, agora a intelixencia artificial chegou á rúa, e esa é unha gran novidade.

Temos a condución autónoma, co coche de Google que xa está a pasear por España, ou as aplicacións de deep learning e análises de datos ou aprendizaxe automática a gran escala, para axudar na toma de decisións. Isto último viuse recentemente, e con situacións máis desagradables, co caso de Cambridge Analytica e a súa influencia nas eleccións estadounidenses ou orientando a toma de decisións nun referendo.

– Vostede adoita dicir que traballa para solucionar problemas. En cales está actualmente?

– A min é o que me gusta, ter unha perspectiva de enxeñeiro, e esa é a sorte que temos, a de traballar nunha área na que gozamos axudando e resolvendo problemas. Agora, e desde hai xa tempo, estamos focalizados en dúas vertentes de investigación: unha centrada na antropoloxía forense e outra no uso de modelos baseados en axentes e análise de redes sociais para axudar á toma de decisións en márketing.

“Automatizamos o proceso de identificación de restos humanos a partir do cranio”

En antropoloxía forense levamos case 12 anos traballando. Asistimos ao forense na identificación de persoas a través dos ósos. En España, o 95% das identificacións faise a través das impresións dixitais, pero tamén a través do ADN ou dos ósos. E nesta centrámonos nós, porque hai momentos nos que este é o último recurso. Traballamos co laboratorio de Miguel Botella, compañeiro da Universidade de Granada, e o que facemos é axudarlles cunha técnica que se chama superposición craniofacial. Pode soar un pouco a ciencia ficción, pero o certo é que a través dun cranio, coas técnicas adecuadas, poderiamos identificar a unha persoa da mesma maneira que facemos coa pegada dactilar.

O que se fai é superpoñer o cranio que queremos identificar cunha fotografía da persoa á que é posible que pertenza. É unha técnica que se aplica a nivel mundial, e que está moi consolidada, pero é moi custosa en tempo. E nós automatizamos o proceso, utilizando técnicas de intelixencia artificial, para asistir ao forense.

E por outra banda estamos coa modelaxe de mundos virtuais, ao estilo de xogos de computador como Simcity ou The Sims. Temos un axente virtual ao que lle introducimos toda a información posible sobre o campo no que imos traballar. Poderiamos comparalo, dalgunha maneira, co que fai El Intermedio nas comparativas entre o barrio de Vallecas e o de Salamanca.

“Coa intelixencia artificial podemos predicir comportamentos que guíen ás empresas na toma de decisións de mercado”

Imaxinemos, por exemplo, que unha empresa de cervexas quere lanzar un novo produto, como unha botella de 50 cl. Se non temos datos históricos, temos que analizar o escenario, pensar que faría a competencia… Entón modelamos o mercado, facemos patróns con datos que poida haber (idade, nivel socioeconómico, etc.) e atribuímolos a unha mostra de persoas que introducimos nun mundo virtual no que poidan interactuar. E aí engadimos outros datos (consumo, hábitos…) e modelamos unha rede social de comunicación entre eles. Así podemos predicir comportamentos que guíen á empresa na toma de decisións.

– Moitas veces fannos pensar que a intelixencia artificial é algo perigoso.

– A IA é un tema de moda, e hai dúas vertentes: a espantadiza e a lóxica. Hai xente moi importante, como Stephen Hawking, que chegou a dicir que a intelixencia artificial ía acabar coa raza humana. Nos seus últimos anos advertiu varias veces do que chaman “intelixencia artificial diabólica”. E Elon Musk está na mesma liña: di que poderiamos estar a invocar ao diaño, que a IA podería ser peor que as armas nucleares.

A miña visión é que a intelixencia artificial vai ser moi parecida a calquera outra tecnoloxía, calquera cambio ou calquera revolución industrial que apareciu antes. Eu creo que non estamos tan preto de que poida haber unha superintelixencia maior que o ser humano, e que poida ser destrutiva. Estou máis próximo a posicións como a de Stuart Russell, que di que agora temos máquinas moi competentes, pero que non son conscientes, e é moi difícil que cheguen a selo.

“Temos máquinas moi competentes, pero non son conscientes e é moi difícil que cheguen a selo”

Que podemos temer? O erro podería vir por que a máquina trate de conseguir os seus obxectivos e busque, como buscamos os humanos, unha físgoa, unha especie de baleiro legal, como fai o que defrauda a Facenda, para superar as barreiras que lles poñen. Eu véxoo máis así, como un fallo por exceso de competencia que por unha consciencia superior que desafíe á consciencia humana. Estamos moi, moi lonxe de ter unha máquina que supere ao ser humano en intelixencia desde unha perspectiva xeral, que sexa consciente de si mesma e que poida ou queira facer algo malo ou prexudicial. Esa é outra variable: se fose consciente, non tería por que ir contra o ser humano: se as programamos nós, entre os que hai humanos bos e humanos malos, as máquinas tampouco terían que seren malas por defecto.

– Entón HAL 9000 segue estando lonxe.

– Eu véxoo moi lonxe. Hai comportamentos tan básicos como os movementos adquiridos (aprender a montarse nunha bicicleta, por exemplo) que as máquinas non son capaces de facer. Hai moitos comportamentos humanos que nin sequera nós sabemos como funcionan, así que como imos ser capaces de programalos? Por exemplo, o director de Enxeñaría de Google, Raymond Kurzweil, pon unha data: di que en 2029 imos conseguir algo parecido a esa superintelixencia; eu non se como puideron facer esa estimación. Seguro que en Google saben máis que nós pero eu creo que esa data está aínda moito máis afastada.

– Hai quen pon o foco do perigo cara á enorme cantidade de datos que compartimos na rede.

– A isto hai que prestarlle atención. Coa nova lei de protección de datos europea, comparouse o marco legal da UE, ou de Estados Unidos, co que hai en China: e aquilo é unha auténtica selva, está todo permitido. Alí as ferramentas de intelixencia artificial terán unha maior capacidade da que teñen aquí, porque teñen menos limitacións.

E isto é un problema ético e filosófico. As máquinas chegan a saber máis de nós ca nós mesmos. Google lembra onde estivemos fai tres anos, cando ás veces nin sequera o lembramos nós, ou detecta que estamos a volver a casa e recoméndanos cambiar de ruta para evitar un atasco.

“Co uso dos datos na rede ponse o exemplo da serra: serve para cortar madeira e facer un moble, pero tamén para decapitar a alguén”

É moi difícil atopar un equilibrio entre que datos debemos protexer, e como conseguir a nivel global que estas tecnoloxías melloren a nosa vida. Todos estamos moi contentos coas ferramentas de Google porque son gratuítas e porque nos democratizaron, pero témolas a cambio de proporcionar unha información que eles utilizan para sacar patróns xenéricos.

Isto ten moitas arestas. Hai un exemplo típico que é o da serra: é un instrumento que serve para cortar madeira e construír un moble, pero tamén pode servir para decapitar a alguén. O problema non é o instrumento en si, senón o uso que se fai do instrumento. E como en todo, a información en malas mans é un problema.

– E outro posible conflito: a robotización dos procesos produtivos e a posible desaparición de moitos postos de traballo.

– Iso si que o vexo máis próximo. Se miramos á segunda Revolución Industrial, pasou exactamente o mesmo. De súpeto, a produción manual en masa automatizouse e apareceron as cadeas de montaxe, co famoso coche de Henry Ford. Producíase a maior velocidade, a un custo inferior, e perdíanse postos de traballo.

Se miramos a esta cuarta Revolución Industrial, isto volve estar presente. Xa temos unha fenda dixital, entre os nativos tecnolóxicos e as persoas que non adquiriron aínda eses coñecementos. Disto fálase moito, e estase empezando a enfocar o impacto da intelixencia artificial tamén desde o punto de vista ético e filosófico. Abriuse un campo a novas disciplinas, non só para tratar de poñer límites, senón para estudar tamén o impacto socioeconómico desta revolución. A IA, como toda nova revolución, será beneficiosa para a Humanidade, pero hai que ter moito coidado con ela.

“Como toda revolución, a intelixencia artificial é beneficiosa, pero hai que ter coidado con ela”

No debate do CiTIUS falouse do exemplo de Amazon, coas súas vendas online. Eu lera que os traballadores dos almacéns desde onde se tramitan os pedidos estaban baldados con só 40 anos, porque facían quilómetros e quilómetros cada día; era moi sacrificado. Robotizaron ese traballo e melloraron a calidade do servizo, achegando o produto ao humano que tramita o pedido; así os traballadores non teñen que desprazarse, son máis eficientes e isto, mesmo, aumentou os postos de traballo porque se demostrou como un modelo máis produtivo.

E que pasa con isto? Que supón unha importante perda para as outras empresas de este e outros sectores que non son tan competitivas como Amazon. Entón, todo ten un efecto rebote. Estas persoas que perden o seu traballo van ter que reconverterse, e disto xa se fala moito en política, co de “cambiar o modelo produtivo”: máis formación e políticas públicas e privadas para conseguir que estas persoas poidan reconverterse, abandonar esas tarefas menos eficientes e competentes, e acceder a traballos máis creativos.

E é responsabilidade nosa, como sociedade, reorientar a estas persoas. É un gran problema que non haxa traballo para as persoas; un problema non só económico, senón tamén psicolóxico, porque fomos educados para traballar e estamos afeitos a isto.

– Que podemos facer cada un de nós para convivir mellor coa intelixencia artificial?

– Esta pregunta non ma fixeron nunca, e paréceme moi interesante. Se temos unha sociedade máis culta, e con máis información, a intelixencia artificial utilizarase e entenderase moito mellor. Queda claro que a Humanidade progresou grazas ao coñecemento. Aínda que a nosa formación é cada vez máis especializada, estase a falar de recuperar as disciplinas humanísticas na educación. Habería que afrontar tamén as Humanidades como competencias dixitais e preguntarse: que ten de bo e que ten de malo a intelixencia artificial?

“Habería que afrontar as Humanidades dentro da intelixencia artificial, preguntarse que ten de bo e que ten de malo”

Nisto xoga un papel importante a divulgación científica; temos grandes expertos que tentan traducir o que se está investigando para que todo o mundo o poida entender, e isto podería ser moi útil. Temos que coñecer o que hai por debaixo, non só quedarnos coas polémicas que xorden, como Cambridge Analytica. E ao mesmo tempo non temos porque aprender exactamente como se desenvolve unha ferramenta de recoñecemento facial, pero si temos dereito a saber para que se utilizan os nosos datos.

Como profesor de universidade e como académico, o que teño que conseguir é que todo o mundo entenda o que fago, sexa enxeñeiro en Informática ou licenciado en Belas Artes. E neste sentido, hai moitos profesionais e grandes empresas e institucións que teñen canles de divulgación excelentes, que explican todo tipo de temas para que todo o mundo os poida entender. Estas iniciativas ábrennos a mente e explícannos o que está a pasar e que pode pasar no futuro.

Deixar unha resposta

XHTML: Podes empregar estas etiquetas: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

POLÍTICA DE COMENTARIOS:

GCiencia non publicará comentarios ofensivos, que non sexan respectuosos ou que conteñan expresións discriminatorias, difamatorias ou contrarias á lexislación vixente.

GCiencia no publicará comentarios ofensivos, que no sean respetuosos o que contentan expresiones discriminatorias, difamatorias o contrarias a la ley existente.