O antropomorfismo é a tendencia para atribuír características humanas a entidades non humanas, como máquinas ou animais. No caso dos chatbots, como ChatGPT, Gemini ou Copilot, este fenómeno ocorre cando imitan a linguaxe humana para comunicarse connosco. Non só utilizan palabras e frases comprensibles e familiares, senón que tamén adoptan patróns de comunicación propios das persoas. Así, logran manter conversacións contextuais e coherentes e, mesmo, poden mostrar humor e empatía.
Este deseño da linguaxe nas máquinas busca que a interacción con elas sexa natural, fluída e accesible. Iso facilita o seu uso en distintas aplicacións, desde o servizo ao cliente ata a educación e o entretemento.
Ata o de agora, considerábase que a linguaxe era unha capacidade exclusiva do ser humano. Con todo, os avances na intelixencia artificial xenerativa lévannos a reconsiderar esta idea.
Un dos trazos máis distintivos da linguaxe humana é a subxectividade, que se manifesta na elección de palabras con carga emocional e na expresión de opinións persoais. Tamén aparece na avaliación de eventos e no uso de elementos contextuais e culturais.
O impacto da primeira persoa
Cando unha máquina simula ser humana na comunicación, xorden implicacións éticas e psicolóxicas importantes. Estas interaccións poden influír en como percibimos e nso relacionamos coa tecnoloxía.
Un trazo típico da subxectividade humana na linguaxe é o uso de pronomes persoais. A primeira persoa (como “eu” e “nós”) permite expresar pensamentos e experiencias propias. A segunda persoa (como “ti” e “vós”) involucra o interlocutor, construíndo unha relación entre os participantes da conversación. Na interacción humana, isto chámase intersubxectividade.
Consideremos un exemplo.
- Usuario: “Como priorizar que artigos conservar, doar ou tirar durante o proceso de organización?”
- Chatbot: “Excelente pregunta! Organizar as túas pertenzas pode ser abafador, pero cunha estratexia clara podes tomar decisións máis fáciles. Aquí preséntoche algunhas ideas para priorizar que conservar, doar ou tirar”.
O chatbot usa a primeira persoa de maneira implícita. Aínda que o “eu” non aparece, o emisor adopta unha posición de asesor ou guía. Por exemplo, na frase “Aquí preséntoche algunhas ideas,” o verbo “presento” está en primeira persoa.
Isto suxire que o chatbot asume o rol de quen brinda axuda. Así, o usuario percibe un trato persoal, aínda que o “eu” non se empregue de maneira explícita. Ademais, o uso de “presento” reforza a imaxe do emisor como alguén que ofrece algo valioso.
Uso da segunda persoa
O “ti” (e formas como “te/che” e “teus/túas”) úsase para dirixirse directamente ao usuario. Isto vese en varias partes do texto, como nas frases: “Organizar as túas pertenzas pode ser abafador” e “cunha estratexia clara, podes tomar decisións máis fáciles”.
Ao falarlle de forma persoal, o chatbot busca que o lector se sinta parte activa do consello. Este tipo de linguaxe é común en textos que buscan involucrar directamente o outro.
Outros elementos na interacción, como “Excelente pregunta!”, non só avalían positivamente a consulta do usuario, senón que tamén incentivan a súa participación. Do mesmo xeito, expresións como “pode ser abafador” suxiren unha experiencia compartida, creando unha ilusión de empatía ao recoñecer as posibles emocións do usuario.
Efectos da empatía artificial
O uso da primeira persoa por parte do chatbot simula consciencia e busca crear unha ilusión de empatía. Ao adoptar unha posición de axudante e usar a segunda persoa, involucra o usuario e reforza a percepción de proximidade. Esta combinación xera unha conversación que se sente máis humana e práctica, adecuada para o asesoramento, aínda que a empatía proveña dun algoritmo, non dunha comprensión real.
Afacernos a interactuar con entidades non conscientes que simulan identidade e personalidade pode ter efectos a longo prazo. Estas interaccións poden influír en aspectos da nosa vida persoal, social e cultural.
A medida que estas tecnoloxías melloran, distinguir entre unha conversación cunha persoa e unha cunha intelixencia artificial podería volverse difícil.
Esta forma de borrar os límites entre o humano e o artificial afecta como entendemos a autenticidade, a empatía e a presenza consciente na comunicación. Mesmo poderiamos chegar a tratar as intelixencias artificiais coma se fosen seres conscientes, xerando confusión sobre as súas capacidades reais.
Incómodos falando con humanos
As interaccións con máquinas tamén poden modificar as nosas expectativas sobre as relacións humanas. Ao habituarnos a interaccións rápidas, perfectas e sen conflito, poderiamos sentirnos máis frustrados nas nosas relacións con persoas.
As relacións humanas están marcadas por emocións, malentendidos e complexidade. Isto, a longo prazo, podería diminuír a nosa paciencia e capacidade para manexar os conflitos e aceptar as imperfeccións naturais nas interaccións interpersoais.
Ademais, a exposición prolongada a entidades que simulan humanidade expón dilemas éticos e filosóficos. Ao atribuírlles calidades humanas, como a capacidade de sentir ou ter intencións, poderiamos comezar a cuestionar o valor da vida consciente fronte a unha simulación perfecta. Isto podería abrir debates sobre os dereitos dos robots e o valor da conciencia humana.
Interactuar con entidades non conscientes que imitan a identidade humana pode alterar a nosa percepción da comunicación, as relacións e a identidade. Aínda que estas tecnoloxías ofrecen vantaxes en termos de eficiencia, é fundamental ser conscientes dos seus límites e dos posibles impactos na forma en que nos relacionamos, tanto coas máquinas como entre nós.
*Cláusula de divulgación: Cristian Augusto González Arias non recibe salario, nin exerce labores de consultoría, nin posúe accións, nin recibe financiamento de ningunha compañía ou organización que poida obter beneficio deste artigo, e declarou carecer de vínculos relevantes máis alá do cargo académico citado.