A encrucillada tecnolóxica: fragmentar a nosa pegada dixital para preservar a privacidade

Investigadores de atlanTTic traballan no deseño de algoritmos que diferencien datos e garantan a confidencialidade sen perder información útil

De esquerda a dereita: Manuel Fernández Veiga, Rebeca Díaz y Ana Fernández Vilas.

A fronteira entre a pegada dixital que deixamos na nosa vida diaria co uso masivo de dispositivos móbiles e a privacidade dos nosos datos persoais é difusa e fráxil. A aceleración do desenvolvemento tecnolóxico estase a topar cunha encrucillada: equilibrar a privacidade e a utilidade nun escenario no que se combinen as grandes bases de datos na nube coa aprendizaxe da máquina, o que se chama machine learning, para preservar a confidencialidade na rede. O Centro de Investigación en Tecnologías de Telecomunicación, atlanTTic, da Universidade de Vigo, ten a todo un equipo interdisciplinar enfocado a explorar esa fina liña para establecer un sistema de distribución que diferencie os datos que son precisos no emprego e funcionamento das aplicacións dos que son persoais e mesmo confidenciais e conducen a nosa máis que probable identificación. 

Neste afán traballan desde 2014 en atlanTTic, buscando como facer compatible unha necesidade cada vez máis crecente -e consciente- de privacidade co uso practicamente imprescindible dos intelixentes, tabletas, portátiles, Ipads, Ipod, geolocalizadores, pulsómetros e reloxos. 

“É moi difícil manterse fóra do sistema de información pero hai unha sensibilidade colectiva moi crecente de maior privacidade no uso dos nosos datos”, explica Rebeca P. Díaz Redondo, profesora da Escola de Enxeñería de Telecomunicacións da UVigo e investigadora principal do proxecto. “Do mesmo xeito que foi crecendo a demanda de produtos bío, certificados ecolóxicos e máis sostibles, as empresas xa tomaron nota de que os usuarios queremos maior privacidade e demandan solucións para ir adaptándose a iso e niso estamos”, sinala.

Algoritmos que discriminen datos

Entre mans teñen COMPROMISE, un proxecto do Ministerio de Ciencia e Innovación para tres anualidades dotado con 430.000 euros e en marcha desde maio do 2021, no que se dan a man con outros departamentos da Universidade Politécnica de Cataluña (UPC) e a Carlos III de Madrid (UC3M). Cada centro está especializado nunha das tres patas deste proxecto conxunto que ten por diante o inxente desafío de traballar con algoritmos de intelixencia artificial que discriminen os datos. O laboratorio catalán céntrase na diferenciación mentres que a universidade madrileña especializouse nos protocolos de comunicación. Ao laboratorio galego correspóndelle o que denominan, de forma xenérica, o Machine Learning (ML) ou aprendizaxe da máquina pero que conleva moitas especializacións  como a aprendizaxe federada e distribuida, na que se encaixa este proxecto. 

“Os nosos teléfonos comparten datos centralizados na nube. O que buscamos é unha privacidade diferencial”

REBECA P. DÍAZ REDONDO, profesora de Telecomunicacións da UVigo

 “O que os nosos teléfonos comparten son datos que están centralizados na nube. O que buscamos é unha privacidade diferencial. Un procesamento distribuído de forma que en lugar de enviar toda a información se envien só os datos necesarios pero sen as claves que permiten identificarnos a cada un”, resume Díaz Redondo. “A clave”, sinala, “está na fragmentación en moitos nodos repartidos e a encriptación con técnicas de aprendizaxe máquina distribuídas e colaborativas no extremo da rede (Egde Computing)”.

“Buscamos un compromiso adecuado entre utilidade e privacidade, é dicir, entre a utilidade obtida polo usuario do servizo e a utilidade dos datos recollidos tras a aplicación de técnicas de mellora da privacidade (PET)”, aclara a investigadora de atlanTTic. Os avances propostos nestes temas atópanse na intersección das seguintes tecnoloxías: ML, fog computing, protocolos de seguridade, redes vehiculares, redes de sensores, sistemas de almacenamento masivo e distribuído e bases de datos dinámicas. 

“Con todo”, advirte a investigadora, “para garantir a privacidade das fontes de datos, é preciso tratar estes datos (anonimizarlos, codificalos, mesmo tentar non compartilos directamente). Isto pode conlevar perda da información, polo que hai que conseguir bos mecanismos de tratamento dos datos e bos algoritmos de aprendizaxe máquina que poidan obter información útil sen danar a privacidade das fontes”.

DEIXAR UNHA RESPOSTA

Please enter your comment!
POLÍTICA DE COMENTARIOS:

GCiencia non publicará comentarios ofensivos, que non sexan respectuosos ou que conteñan expresións discriminatorias, difamatorias ou contrarias á lexislación vixente.

GCiencia no publicará comentarios ofensivos, que no sean respetuosos o que contentan expresiones discriminatorias, difamatorias o contrarias a la ley existente.

Please enter your name here

Este sitio emprega Akismet para reducir o spam. Aprende como se procesan os datos dos teus comentarios.