Mércores 21 Xaneiro 2026

Un equipo galego explora o potencial da IA para detectar síntomas de depresión en redes sociais

Un estudo do CiTIUS analiza automaticamente textos publicados en Internet para detectar patróns lingüísticos asociados á saúde mental

Moitas persoas expresan nas redes sociais aquilo que lles custa verbalizar noutros espazos: cansazo constante, pensamentos negativos, sensación de inutilidade ou unha tristeza que se alonga no tempo. Sen pretendelo, esas mensaxes cotiás poden reflectir un malestar real que, en moitos casos, pasa desapercibido durante meses ou anos, xa sexa polos atrasos nas listas de espera de psiquiatría e psicoloxía nos hospitais ou polo estigma que aínda acompaña a saúde mental. Poden esas publicacións na rede ofrecer algunha pista útil para identificar sinais temperáns de depresión?

Un equipo do Centro Singular de Investigación en Tecnoloxías Intelixentes (CiTIUS) da Universidade de Santiago (USC) está a explorar esa posibilidade combinando intelixencia artificial (IA) e coñecemento clínico. A través da análise automática de textos publicados nas redes sociais, buscan detectar patróns lingüísticos asociados a síntomas de depresión, non para substituír aos profesionais da saúde mental nin emitir diagnósticos, senón para comprender mellor como se expresa o malestar emocional no ámbito dixital e como a tecnoloxía podería contribuír á súa detección temperá.

Que se pode aprender do que escribimos en Internet

O estudo analiza publicacións de usuarios que se autoidentificaron como diagnosticados de depresión, comparándoas con contidos doutros usuarios sen diagnóstico para identificar patróns lingüísticos asociados a síntomas clínicos. Os investigadores combinaron estes textos co Inventario de Depresión de Beck (BDI polas súas siglas en inglés), un cuestionario habitual na psicoloxía para medir síntomas de depresión, e adestraron modelos de intelixencia artificial para clasificar frases segundo se amosan ou non sinais relacionados cos indicadores do BDI.

Como explica Mario Ezra Aragón, investigador do CiTIUS e coautor do estudo: “Analizamos exclusivamente o texto das publicacións: as palabras que utilizan, a forma de construír frases ou certos patróns lingüísticos relacionados con emocións e experiencias persoais”. O foco non está en vixiar individuos concretos, senón en detectar tendencias xerais na linguaxe que poidan reflectir malestar emocional. Para mellorar a cobertura dos modelos, o equipo tamén empregou técnicas de ampliación de datos, incluída a xeración de exemplos sintéticos con modelos de linguaxe avanzados.

Publicidade

Como aprende a IA a recoñecer o malestar

A intelixencia artificial non funciona como un detector de palabras clave nin se limita a detectar termos específicos. Analiza como se expresa unha idea no seu conxunto: o ton emocional, a maneira de falar dun mesmo, a repetición de certos sentimentos ou a forma de describir o futuro. “Non é o mesmo mencionar unha emoción de forma puntual que expresar de forma continuada sentimentos de culpa, desesperanza ou cansazo extremo”, explica Ezra Aragón. Para aprender a distinguir estes matices, os modelos adéstranse con exemplos previamente clasificados segundo síntomas recollidos en cuestionarios clínicos como o BDI, combinando coñecemento clínico e análise lingüística automatizada.

Os resultados amosan que hai sinais que se reflicten con maior claridade na linguaxe cotiá das redes sociais. Síntomas como as ganas de chorar, o cansazo extremo, as dificultades para durmir ou os pensamentos moi negativos sobre un mesmo aparecen con máis frecuencia e son máis doados de identificar automaticamente. Pola contra, outros sinais máis xerais, como a tristeza ou o pesimismo, son tamén habituais en persoas sen diagnóstico, o que dificulta a súa detección. Este solapamento, sinala Aragón, recórdanos que a linguaxe humana é ambigua e que a saúde mental non pode reducirse a categorías pechadas: a IA pode axudar a sinalar patróns, pero sempre con limitacións e coa necesidade de interpretación humana.

Privacidade, límites e riscos desta tecnoloxía

Traballar con datos relacionados coa saúde mental implica retos éticos importantes. No estudo empregáronse só textos públicos e anonimizados, recollidos con fins científicos e baixo protocolos éticos estritos. “Non analizamos persoas concretas nin tentamos identificar usuarios reais. O obxectivo é estudar patróns xerais na linguaxe, non facer un seguimento individual”, explica Ezra Aragón. Calquera uso futuro destas ferramentas, engade, deberá respectar a lexislación en materia de protección de datos e contar cun marco ético e clínico claro.

Alén da privacidade, existen outros riscos asociados ao uso da intelixencia artificial na saúde mental. Non todas as persoas expresan o seu malestar nas redes sociais, nin o fan do mesmo xeito, e a linguaxe pode ser irónica, esaxerada ou estar condicionada polo contexto social. Isto aumenta o risco de interpretacións erróneas ou falsos positivos se estas tecnoloxías se empregan sen cautela. Por iso, os autores do estudo insisten en que estas ferramentas deben entenderse como un apoio á investigación ou á detección temperá, nunca como sistemas de diagnóstico nin como substitutos da avaliación profesional.

Novas vías para entender o malestar en liña

A investigación realizada no CiTIUS mostra que a linguaxe que se emprega en Internet pode achegar información valiosa sobre o malestar emocional, sempre que se interprete con coidado. Nun contexto no que a depresión continúa a estar infradiagnosticada e moitas persoas non chegan a recibir axuda a tempo, este tipo de enfoques abren a porta a ferramentas complementarias para detectar sinais de alerta temperá a nivel poboacional. “Non como substitución da atención clínica, senón como apoio á investigación e á planificación de recursos en saúde mental”, subliña Ezra Aragón.

Os seguintes pasos pasan por facer estes sistemas máis comprensibles e transparentes. “Queremos que se entenda mellor por que un modelo identifica un sinal concreto e cales son os seus límites”, explica o investigador. O equipo tamén analiza como varía a expresión do malestar segundo a plataforma dixital ou o contexto cultural, así como en reducir os posibles nesgos que os modelos poden aprender durante o seu adestramento.

“A longo prazo, o obxectivo é contribuír a un uso máis responsable da intelixencia artificial na saúde mental, sempre desde unha perspectiva interdisciplinar e coa colaboración de profesionais do ámbito clínico”, conclúe Ezra Aragón. A linguaxe en liña pode ser unha fiestra cara ao que ocorre fóra da rede, pero só se se entende como o que é: un reflexo parcial, cambiante e complexo da experiencia humana, que nunca debe ser analizado sen contexto ou sen responsabilidade.


Referencia: Online expressions, offline struggles: Using social media to identify depression-related symptoms (Publicado en Online Social Networks and Media)

DEIXAR UNHA RESPOSTA

Please enter your comment!
Please enter your name here

Este sitio usa Akismet para reducir o spam. Aprende como se procesan os datos dos teus comentarios.

Relacionadas

Investigadores galegos identifican unha proteína clave para diagnósticos de saúde mental

Unha tese do IDIS e o IISGS analiza a hormona IGF-2 como posible biomarcador da esquizofrenia, a depresión e o trastorno bipolar

Un investigador da UDC, premiado por aplicar IA na detección de depresión en redes sociais

A tese de Miguel Anxo Pérez Villa parte da evidencia de que as persoas que sofren problemas de saúde mental adoitan mostrar cambios na súa maneira de expresarse

A USC e Microsoft colaboran para desenvolver modelos de Intelixencia Artificial multilingüe

O CiTIUS é unha das tres entidades coas que a compañía tecnolóxica traballará para crear modelos fundacionais de IA en galego, éuscaro e catalán

Que lle sucede ao noso cerebro cando vemos vídeos a velocidades máis rápidas do normal?

Reproducir contido a 1,5x ou 2x pode parecer eficiente, pero afecta á comprensión, a memoria e á maneira en que procesamos a información audiovisual