Óscar Cordón, esta semana, en el CiTIUS de Santiago, donde habló sobre inteligencia artificial. Foto: Andrés Ruiz.

Óscar Cordón, esta semana, en el CiTIUS de Santiago, donde habló sobre inteligencia artificial. Foto: Andrés Ruiz.

“Tenemos máquinas muy competentes, pero es difícil que lleguen a ser conscientes”

El catedrático de la Universidad de Granada, experto en inteligencia artificial, participó en una jornada divulgativa en el CiTIUS de Santiago

Oscar Cordón García (Cádiz, 1972) está entre el 1% de los investigadores en inteligencia artificial más citados del mundo. Es catedrático de Ciencias de la Computación e Inteligencia Artificial de la Universidad de Granada. Trabaja, como suele insistir, “para solucionar problemas” gracias la computación. Desde la ciencia forense hasta los estudios de mercado. Una visión muy alejada de los malos agüeros que proliferan los peligros de esta tecnología, y que no acaban de pasar de la ficción a la realidad. Precisamente para esto acudió esta semana a Santiago de Compostela, donde participó junto a otros dos referentes, Enric Trillas y Ramón López de Mántaras, en la mesa redonda ¿Tiene límites la inteligencia artificial? ¿Hay que ponérselos? organizada por el CiTIUS.

– ¿En qué momento se encuentra la inteligencia artificial?

– La disciplina ya tiene 60 años, con sus ciclos positivos y negativos. Ahora estamos en un momento de ‘bum’. Hay muchas noticias que tienen mucho impacto. Además de los clásicos, como la máquina que gana al humano al ajedrez o a otros juegos para los que teóricamente se necesita la inteligencia, ahora la inteligencia artificial ha llegado a la calle, y esa es una gran novedad.

Tenemos la conducción autónoma, como el coche de Google que ya está paseando por España, o las aplicaciones de deep learning y análisis de datos o aprendizaje automático a gran escala, para ayudar en la toma de decisiones. Esto último se ha visto recientemente, y con situaciones más desagradables, con el caso de Cambridge Analytica y su influencia en las elecciones estadounidenses u orientando la toma de decisiones en un referéndum.

– Usted suele decir que trabaja para solucionar problemas. ¿En cuáles está actualmente?

– A mí es lo que me gusta, tener una perspectiva de ingeniero, y es la suerte que tenemos, de trabajar en un área en la que disfrutamos ayudando y resolviendo problemas. Ahora, y desde hace ya tiempo, estamos focalizados en dos vertientes de investigación: una centrada en la antropología forense y otra en el uso de modelos basados en agentes y análisis de redes sociales para ayudar a la toma de decisiones en márketing.

“Automatizamos el proceso de identificación de restos humanos a partir del cráneo”

En antropología forense llevamos casi 12 años trabajando. Asistimos al forense en la identificación de personas a través de los huesos. En España, el 95% de las identificaciones se hace a través de las huellas dactilares, pero también a través del ADN o de los huesos. Y en esta nos centramos nosotros, porque hay momentos en los que este es el último recurso. Trabajamos con el laboratorio de Miguel Botella, compañero de la Universidad de Granada, y lo que hacemos es ayudarles con una técnica que se llama superposición craneofacial. Puede sonar un poco a ciencia ficción, pero lo cierto es que a través de un cráneo, con las técnicas adecuadas, podríamos identificar a una persona de la misma manera que hacemos con la huella dactilar.

Lo que se hace es superponer el cráneo que queremos identificar con una fotografía de la persona a la que es posible que pertenezca. Es una técnica que se aplica a nivel mundial, y que está muy consolidada, pero es muy costosa en tiempo. Y nosotros hemos automatizado el proceso, utilizando técnicas de inteligencia artificial, para asistir al forense.

Y por otra parte estamos con la modelación de mundos virtuales, al estilo de juegos de ordenador como Simcity o Los Sims. Tenemos un agente virtual al que le introducimos toda la información posible sobre el campo en el que vamos a trabajar. Podríamos compararlo, de alguna manera, con lo que hace El Intermedio en las comparativas entre el barrio de Vallecas y el de Salamanca.

“Con la inteligencia artificial podemos predecir comportamientos que guíen a las empresas en la toma de decisiones de mercado”

Imaginemos, por ejemplo, que una empresa de cervezas quiere lanzar un nuevo producto, como una botella de 50 cl. Si no tenemos datos históricos, tenemos que analizar el escenario, pensar qué haría la competencia… Entonces modelamos el mercado, hacemos patrones con datos que pueda haber (edad, nivel socioeconómico, etc.) y los atribuímos a una muestra de personas que introducimos en un mundo virtual en el que puedan interactuar. Y ahí añadimos otros datos (consumo, hábitos…) y modelamos una red social de comunicación entre ellos. Así podemos predecir comportamientos que guíen a la empresa en la toma de decisiones.

– Muchas veces nos hacen pensar que la inteligencia artificial es algo peligroso.

– La inteligencia artificial es un tema de moda, y hay dos vertientes: la asustadiza y la lógica. Hay gente muy importante, como Stephen Hawking, que llegó a decir que la inteligencia artificial iba a acabar con la raza humana. En sus últimos años advirtió varias veces de lo que llaman “inteligencia artificial diabólica”. Y Elon Musk está en la misma línea: dice que podríamos estar invocando al diablo, que podría ser peor que las armas nucleares.

Mi visión es que la inteligencia artificial va a ser muy parecida a cualquier otra tecnología, cualquier cambio o cualquier revolución industrial que haya aparecido antes. Yo creo que no estamos tan cerca de que pueda haber una superinteligencia mayor que el ser humano, y que pueda ser destructiva. Estoy más cercano a posiciones como la de Stuart Russell, que dice que ahora tenemos máquinas muy competentes, pero que no son conscientes, y es muy difícil que lleguen a serlo.

“Si tenemos una sociedad más culta, la inteligencia artificial se entenderá mucho mejor”

¿A qué podemos temer? El error podría venir porque la máquina trate de conseguir sus objetivos y busque, como buscamos los humanos, un resquicio, una especie de vacío legal, como hace quien defrauda a Hacienda, para superar las barreras que se les han puesto. Yo lo veo más así, como un fallo por exceso de competencia que por una consciencia superior que desafíe a la consciencia humana. Estamos muy muy lejos de tener una máquina que supere al ser humano en inteligencia desde una perspectiva general, que sea consciente de sí misma y que pueda o quiera hacer algo malo o perjudicial. Esa es otra variable: si fuera consciente, no tendría por qué ir contra el ser humano: si las programamos nosotros, entre los que hay humanos buenos y humanos malos, las máquinas tampoco tendrían que ser malas por defecto.

– Entonces HAL 9000 sigue estando lejos.

– Yo lo veo muy lejos. Hay comportamientos tan básicos como los movimientos adquiridos, aprender a montarse en una bicicleta por ejemplo, que las máquinas no son capaces de hacer. Hay muchos comportamientos humanos que ni siquiera nosotros sabemos cómo funcionan, así que ¿cómo vamos a ser capaces de programarlos? Por ejemplo, el Director de Ingeniería de Google, Raymond Kurzweil, pone una fecha: dice que en 2029 vamos a conseguir algo parecido a esa superinteligencia; yo no sé cómo han podido hacer esa estimación. Seguro que en Google saben más que nosotros pero yo creo que está todavía muy muy lejana.

– Hay quien pone el foco del peligro hacia la enorme cantidad de datos que compartimos en la red.

– A esto hay que prestarle atención. Con la nueva ley de protección de datos europea, se ha comparado el marco legal de la UE, o de Estados Unidos, con el que hay en China: y aquello es una auténtica selva, está todo permitido. Allí las herramientas de inteligencia artificial tendrán una mayor capacidad de la que tienen aquí.

Y esto es un problema ético y filosófico. Las máquinas llegan a saber más de nosotros que nosotros mismos. Google nos recuerda dónde estuvimos hace tres años, cuando a veces ni siquiera nos acordamos, o detecta que estamos volviendo a casa y nos recomienda cambiar de ruta para evitar un atasco.

“Con el uso de datos en la red, se pone el ejemplo de la sierra: sirve para hacer muebles, pero también para decapitar”

Es muy difícil encontrar un equilibrio entre qué datos proteger, y como conseguir a nivel global que estas tecnologías mejoren nuestra vida. Todos estamos muy contentos con las herramientas de Google porque son gratuitas y nos han democratizado, pero las tenemos a cambio de proporcionar una información que ellos utilizan para sacar patrones genéricos.

Esto tiene muchas aristas. Hay un ejemplo típico que es el de la sierra: es un instrumento que sirve para cortar madera y construir un mueble, pero también puede servir para decapitar a alguien. El problema no es el instrumento en sí, sino el uso que se hace del instrumento. Y como en todo, la información en malas manos es un problema.

– Y otro posible conflicto: la robotización de los procesos productivos y la posible desaparición de muchos puestos de trabajo.

– Eso sí que lo veo más cercano. Si miramos a la segunda Revolución Industrial, pasó exactamente lo mismo. De repente, la producción manual en masa se automatizó y aparecieron las cadenas de montaje, con el famoso coche de Henry Ford. Se producía a mayor velocidad, a un coste inferior, y se perdían puestos de trabajo.

Si miramos a esta cuarta Revolución Industrial, esto vuelve a estar presente. Ya tenemos una brecha digital, entre los nativos tecnológicos y las personas que no han adquirido aún esos conocimientos. De esto se habla mucho y así se está empezando a enfocar el impacto de la inteligencia artificial también desde el punto de vista ético y filosófico. Se ha abierto un campo a nuevas disciplinas, no sólo para tratar de poner límites, sino para estudiar también el impacto socioeconómico. La Inteligencia Artificial, como toda nueva revolución, será beneficiosa para la Humanidad, pero hay que tener mucho cuidado con ella.

“Como toda revolución, la inteligencia artificial es beneficiosa, pero hay que tener cuidado con ella”

En el debate del CiTIUS se ha hablado del ejemplo de Amazon, con sus ventas online. Yo había leído que los trabajadores de los almacenes desde donde se tramitan los pedidos estaban agotados a los 40 años, porque hacían kilómetros y kilómetros cada día; era muy sacrificado. Han robotizado ese trabajo y han mejorado la calidad del servicio, acercando el producto al humano que tramita el pedido; así los trabajadores no tienen que desplazarse, son más eficientes y esto, incluso, ha aumentado los puestos de trabajo porque se ha demostrado un modelo más productivo.

¿Y qué pasa con esto? Que supone una importante pérdida para las otras empresas de este y otros sectores que no son tan competitivas como Amazon. Entonces, todo tiene un efecto rebote. Estas personas que pierden su trabajo van a tener que reconvertirse, y de lo que se habla ya mucho en política, con lo de “cambiar el modelo productivo”: más formación y políticas públicas y privadas para conseguir que estas personas puedan reconvertirse, abandonar esas tareas menos eficientes y competentes, y acceder a trabajos más creativos.

Y es responsabilidad nuestra, como sociedad, reorientar a estas personas. Es un gran problema que no haya trabajo para las personas, no sólo económico, sino también psicológico, porque hemos sido educados y estamos acostumbrados a trabajar.

– ¿Qué podemos hacer cada uno de nosotros para convivir mejor con la inteligencia artificial?

– Esta pregunta no me la han hecho nunca y me parece muy interesante. Si tenemos una sociedad más culta, y con más información, la inteligencia artificial se utilizará y se entenderá mucho mejor. Queda claro que la Humanidad ha progresado a base de conocimiento. Aunque nuestra formación es cada vez más especializada, se está hablando de recuperar las disciplinas humanísticas en la educación. Y habría que afrontar también las Humanidades como competencias digitales: ¿qué tiene de bueno y qué tiene de malo la inteligencia artificial?

“Habría que afrontar las Humanidades dentro de la inteligencia artificial, preguntarse qué tiene de bueno y que tiene de malo”

En esto juega un papel importante la divulgación científica; tenemos grandes expertos que intentan traducir lo que se está investigando para que todo el mundo lo pueda entender y esto podría ser muy útil. Tenemos que conocer lo que hay por debajo, no sólo quedarnos con las polémicas que surgen, como Cambridge Analytica. Y al mismo tiempo no tenemos por qué aprender exactamente cómo se desarrolla una herramienta de reconocimiento facial, pero sí tenemos derecho a saber para qué se utilizan nuestros datos.

Como profesor de universidad y como académico, lo que tengo que conseguir es que todo el mundo entienda lo que hago, sea ingeniero en Informática o licenciado en Bellas Artes. Y en este sentido, hay muchos profesionales y grandes empresas que tienen canales de divulgación excelentes, que explican todo tipo de temas para que todo el mundo los entienda. Estas iniciativas nos abren la mente y nos explican qué está pasando y qué puede pasar en el futuro.

Deixar unha resposta

XHTML: Podes empregar estas etiquetas: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

POLÍTICA DE COMENTARIOS:

GCiencia non publicará comentarios ofensivos, que non sexan respectuosos ou que conteñan expresións discriminatorias, difamatorias ou contrarias á lexislación vixente.

GCiencia no publicará comentarios ofensivos, que no sean respetuosos o que contentan expresiones discriminatorias, difamatorias o contrarias a la ley existente.