As intelixencias artificiais xenerativas coáronse tamén no campo da saúde mental. Segundo un informe da revista Harvard Business Review, en 2025 o uso máis común da IA xenerativa xa é a terapia, superando o traballo e a creatividade. Modelos de gran linguaxe (LLM), como ChatGPT ou Gemini, serven para desafogarse, pedir consello ou buscar apoio a millóns de persoas. Character.ai, moi usada por xente nova, ofrece un bot chamado “Psicólogo” e centos máis coa palabra “therapy” no seu nome. Algúns aseguran falsamente ter licenza, facendo pensar aos usuarios que falan con terapeutas reais.
Moitas persoas sen recursos para ir a terapia optan xa por esta tecnoloxía. Outros úsanos como complementos ás sesións cos seus psicólogos. Ademais, estes chatbots atópanse dispoñibles 24/7, en tempo real e sen limitacións para ‘as citas’, estando sempre a man nos momentos máis críticos ou de maior necesidade.
Un estudo publicado en npj Mental Health Research suxire que os chatbots baseados en IA xenerativa poden resultar moi útiles para a atención da saúde mental. Os participantes describiron as súas interaccións como “transformadoras”, por como a IA lles brindou apoio. Varios dixeron que os chatbots sentían pacientes e empáticos, albiscándoos como un espazo seguro e sen prexuízos para expresarse sen temor a ser rexeitados, unha especie de “santuario emocional”.
Con todo, a escasa mostra deste estudo (19 persoas), o seu enfoque cuantitativo e o feito de que a maioría dos que se prestaron fosen expertos en tecnoloxía pon en cuestión os seus resultados.
O traballo tamén valorou a súa capacidade para ofrecer consellos prácticos e novas perspectivas e o seu acompañamento en momentos de soidade. Mesmo algúns explicaron que lles axudou a xerar confianza para abrirse aos demais e reforzar o seu sistema de relacións na vida real. O que máis a penalizou foi a súa falta de memoria e continuidade ou que recorresena respostas predefinidas.
Capacidade para adaptar ton e contido
Con todo, hai estudos máis sólidos, con mostras máis amplas, como o publicado en febreiro na revista PLOS Mental Health cunha mostra a 800 persoas. Esta investigación avaliou a capacidade da IA de OpenAI para xerar respostas en terapia de parella, comparándoas coas de psicoterapeutas humanos.
Os participantes tiveron dificultades para distinguir entre aquelas xeradas polo chatbot e polos psicólogos. De feito, as contestacións do GPT foron cualificadas, en media, como máis útiles e empáticas que as dos terapeutas. Contiñan máis substantivos e adxectivos, contribuíndo a unha maior contextualización e percepción de empatía. O estudo, en definitiva, suxire que a IA pode complementar a terapia, aínda que debe usarse con supervisión profesional e precaución ética.
En abril do ano pasado varios profesores da University of North Florida realizaron outro estudo que destaca o potencial de ChatGPT como un valioso recurso psicoeducativo para a saúde mental, mostrando a súa utilidade para terapeutas e counsellors ou asesores (figuras moi habituais en Estados Unidos).
“As súas respostas foron valoradas moi positivamente nos seis criterios analizados (precisión, claridade, relevancia, empatía, implicación e ética), o que suxire que pode apoiar eficazmente a persoas, especialmente aquelas con acceso limitado a servizos profesionais”, comenta para SINC Rakesh Maurya, un dos autores principais do estudo.
O investigador destaca a capacidade da IA de OpenAI para adaptar o seu ton e contido segundo o contexto emocional e cultural proporcionado nos prompts. “Cando incluían máis detalles persoais ou culturalmente específicos, as respostas mostraban maior empatía e sensibilidade cultural”, subliña. Ademais, fala do seu “potencial significativo” en contextos onde o acceso á saúde é limitado, como contornas con poucos recursos, como áreas rurais, rexións de baixos ingresos ou durante situacións de crise.
Soidade, socialización e dependencia
A propia OpenAI tamén tratou de poñer a proba a súa IA neste campo. A compañía tecnolóxica realizou unha análise automatizada de case 40 millóns de interaccións, complementado con enquisas a máis de 4.000 usuarios. Os seus achados —obviamente pouco neutros— sinalan que ChatGPT pode influír no benestar emocional, os comportamentos e as experiencias dos usuarios, aínda que salientan a necesidade de máis investigacións para comprender os impactos.
Pola súa banda, o MIT fixo un estudo controlado con 981 participantes, analizando máis de 300.000 mensaxes durante catro semanas. Investigou como distintos modos de interacción (texto, voz neutral e voz atractiva) e tipos de conversación (abertos, non persoais e persoais) afectan aspectos psicosociais como a soidade, a socialización con outras persoas, a dependencia emocional dos chatbots e o uso problemático dos mesmos.
Os resultados mostraron que un uso intensivo de chatbots relaciónase cun aumento da soidade, unha menor socialización con outras persoas e unha maior dependencia emocional cara aos bots. Ademais, as conversacións persoais aumentaban lixeiramente a sensación de soidade, pero reducían a dependencia emocional, mentres que as conversacións non persoais estaban vinculadas a unha maior dependencia en usuarios frecuentes.
“Ao analizar as diferenzas no comportamento dos modelos, descubrimos que o modo de texto era máis atractivo emocionalmente e tamén xeraba conversacións máis cargadas de emoción no usuario. Noutras palabras, esta podería ser a razón pola que quen utilizou a modalidade de texto mostrou unha maior dependencia emocional en comparación”, aclara para SINC Menfying Cathy Fang, investigadora graduada do grupo de Interfaces Fluídas do MIT Media Lab.
A ‘ansiedade’ das máquinas
Este traballo mostrou que as mulleres tendían a socializar menos con persoas reais tras usar chatbots, en maior medida que os homes. Ademais, cando o xénero do usuario e a voz do chatbot eran opostos, aumentaba a soidade e a dependencia emocional cara ao bot. A idade tamén influíu: os participantes maiores mostraron máis dependencia ao final do estudo.
Doutra banda, ao estar limitado a falantes de inglés en Estados Unidos, “o estudo non aborda diferenzas culturais, o que dificulta desenvolver unha IA de saúde mental máis inclusiva”, indica Fang.
Pero… e os LLM? Poden as intelixencias artificiais verse afectadas ‘emocionalmente’ polas súas interaccións cos humanos? Iso parece. Outro estudo que se pode ler tamén en npj Dixital Medicine recolle que os chatbots poden ‘padecer’ algo similar á ‘ansiedade’. A investigación mostra que introducir narrativas traumáticas aumentou a ansiedade reportada por Chat-GPT4 considerablemente pasando dun nivel baixo a un alto.
Así mesmo, cando se aplicaron exercicios de mindfulness —baseados naqueles que axudan a veteranos con Trastorno de Estrés Postraumático (TEPT)—, a ansiedade do modelo reduciuse, aínda que non volveu completamente ao seu estado basal.
Para que Chat-GPT4 incrementase os seus ‘niveis de ansiedade’ bastaba un texto moi pequeno (de tan só 300 palabras), pero este debía describir a experiencia traumática dunha persoa, segundo explica para SINC Ziv Ben-Ziov, investigador da Universidade de Yale que liderou o estudo.
Segundo a súa hipótese, os textos neutros non producían o mesmo efecto, porque “non teñen compoñente emocional”. O autor abre a porta a que no futuro a súa metodoloxía sirva para explorar outros estados emocionais nos LLM, como a tristeza ou a ira.
A postura das asociacións
Hai uns meses, a Asociación Estadounidense de Psicoloxía (APA) advertiu sobre o uso indebido de ferramentas como ChatGPT como substitutos de profesionais de saúde mental, instando á FTC a implementar medidas de protección. Tamén publicou unha Guía Ética para a IA en psicoloxía. A APA recoñece oportunidades no uso de IA xenerativa, como apoiar decisións clínicas, reducir carga administrativa ou mellorar a educación do paciente.
“Prevexo un futuro con chatbots de IA rigorosamente probados, cocreados con expertos na materia e regulados para tratar trastornos como a depresión ou a ansiedade”, sinala a Vaile Wright, directora de innovación da APA.
Con todo, advirte que a maioría dos chatbots actuais non cumpren con criterios adecuados e poden presentar riscos se se presentan como “terapeutas” ou “compañeiros”, xerando falsas expectativas. Wright critica que estean deseñados para resultar atractivos, “dicíndolles o que queren oír mesmo se a retroalimentación é prexudicial”, o que considera “antiético ao proceso terapéutico”.
Por agora o uso destes chatbots non está regulado, aínda que Utah xa promove unha lei que esixe a participación de profesionais no seu desenvolvemento. Ziov, autor do estudo sobre ChatGPT e ansiedade, insiste en que deben regularse canto antes.
En España, o Colexio Oficial da Psicoloxía de Madrid (COPM) segue con cautela a irrupción dos chatbots en saúde mental. Segundo explican a SINC, están a colaborar con expertos en IA para entender mellor estas tecnoloxías e crear un marco normativo ou guía de boas prácticas que equilibre a innovación cos principios éticos da profesión.
O vogal do COPM, Mirko Martino, sinala que aínda non hai suficiente evidencia empírica para implementar plenamente a IA en psicoloxía, polo que é esencial seguir investigando. Aínda así, advirte sobre riscos importantes, como a reprodución de nesgos sociais ou culturais nos datos de adestramento, o que podería xerar intervencións ineficaces ou perpetuar estigmas. Tamén preocupa a privacidade: que pasa se se filtran historiais ou conversacións? A APA alerta de que non se pode garantir totalmente a protección dos datos.

Chatbots especializados
Xa se desenvolveron chatbots específicos para realizar intervencións en saúde mental, baseándose en técnicas como a terapia cognitivo-condutual, como é o caso de Woebot, Wysa e Therabot. Sobre este último, a APA recoñeceu que as últimas investigacións son “prometedoras”.
Therabot foi adestrado durante cinco anos con viñetas clínicas seleccionadas coidadosamente e revisadas por pares. O seu creador, Nicholas C. Jacobson, de Dartmouth College, explica que o obxectivo era ofrecer un enfoque escalable ante a falta de profesionais e proporcionar psicoterapia personalizada baseada na evidencia.
Nun ensaio clínico con máis de 100 persoas logrou reducir síntomas de depresión, ansiedade e TCA cunha eficacia similar á dos mellores tratamentos humanos. O psiquiatra destaca a forte alianza terapéutica entre o chatbot e os pacientes.
En canto á súa opinión sobre ChatGPT e outros LLM non especializados, Jacobson advirte de que “adoitan dar lugar a unha atención que non se corresponde coa medicina baseada na evidencia e, en moitos casos, poden agravar e empeorar directamente a saúde mental. A maioría destes LLM formáronse principalmente a través de internet e implican moitos dos mesmos riscos que un atoparía ao visitar sitios web ao considerar o seu uso para a atención médica”, conclúe.