Luns 27 Maio 2024

Falsidade documental e fraude: os riscos de usar a intelixencia artificial na ciencia

Os expertos non logran detectar todos os artigos elaborados por Chat GPT, un procesador automático de textos

O mal uso da intelixencia artificial en investigación é unha das preocupacións actuais da comunidade científica. Ferramentas como o xa estendido Chat GPT producen a partir dunhas pequenas indicacións artigos de todo tipo, resumos, traballos académicos e mesmo poden aprobar exames médicos. O Chat GPT é accesíbel e gratuíto para calquera persoa do mundo. Aínda que é difícil recoñecer a súa autoría, tanto persoas expertas como ferramentas de software descubriron textos científicos xerados por intelixencias artificiais. Algúns retíranse e outros logran pasar a criba. Se o risco de plaxio e fraude xa existía previamente coas fábricas de artigos, a aparición destas tecnoloxías incrementounos aínda máis e con iso, a desinformación. Con todo, os profesionais non piden que o Chat GPT ou este tipo de tecnoloxías se deixen de utilizar. Recoñecen que ás veces poden resultar útiles, pero apelan á responsabilidade e integridade para un eido tan rigoroso e transparente como a ciencia.

A investigadora da Universidade de Santiago (USC) Cristina Candal conta que o uso da intelixencia artificial en ciencia está moi estendida e cre que cando estea máis adestrada non vai ser fácil detectar os artigos feitos por un robot. Estas ferramentas coñecidas como Modelos de Linguaxe Grande (LLM) aprenden en función dos datos que recompilan dos seres humanos. Son máquinas creadas para aprender rápido de nós e do que lle pedimos. De momento conteñen limitacións, por exemplo non poden citar referencias bibliográficas, elemento que non pode faltar na literatura científica, pero espérase que si o fagan a medio prazo. “A solución non vai ser fácil. Que o poidamos adestrar para que faga o que nós queiramos é igualmente un erro”, sostén Candal. “En 2009 uns estudantes de informática americanos xa publicaron un artigo científico con este software. Non é novo, o problema é que agora todo o mundo pode usalo”, engade.

Publicidade

Os motivos que levan a un profesional da ciencia a recorrer a estas ferramentas para elaborar un texto completo son varias. En primeiro lugar e en opinión de Candal, “falta de formación e integridade científica, algo que se repite en moitos países”. Tamén ten que ver co sistema de avaliación dos investigadores deste eido: canto máis publiquen, máis facilmente poderán acceder a postos de traballo máis importantes e salarios máis elevados. Recoñéceselles a nivel laboral en función dos artigos que asinen, no academicismo é moi importante o número de citacións que os escritores reciben nas súas publicacións e valórase tamén nos ámbitos universitarios.

“Falta formación e integridade científica”

CRISTINA CANDAL, investigadora da USC

“Esta presión é a culpable e o coste cero de crear un artigo enteiro ten aínda un impacto todavía maior, habería que estudar como poden afectar aos paper e ás organizacións que fabrican manuscritos científicos”, sinala Candal. Porén, a investigadora si que contempla o seu uso para unha leve retroalimentación entre máquina e persoa, por exemplo para a reescritura de frases. O presidente do Colexio Profesional de Enxeñería Informática de Galicia (CPEIG), Fernando Suárez, comparte esta opinión e engade que tamén podería empregarse na contextualización ou na introdución de traballos científicos. Cre que pode ser una “primeira toma de contacto para a elaboración dos textos” e insiste en que “o importante non é a ferramenta, senón o uso que lle damos.”

“O Chat GPT nunca poderá substituír textos completos realizados por seres humanos”

FERNANDO SUÁREZ, presidente do Colexio Profesional de Enxeñería Informática de Galicia (CPEIG)

Os artigos falsos enchen a literatura científica de información non válida. Isto ten consecuencias para a ciencia e a poboación. En biomedicina, por exemplo, os médicos para implementar novos tratamentos recorren á evidencia científica, aos artigos publicados que se entenden que son verdadeiros nas súas referencias e que pasaron filtros de plaxio e falsidade documental. Se estes traballos conteñen información falsa, os resultados dos seus traballos médicos tamén. Fernando Suárez insiste en que unha intelixencia artificial non pode substituír a unha persoa. Asegura que as finalidades do uso da ferramenta son variadas, pero considera que o Chat GPT “nunca poderá substituír textos completos realizados por seres humanos”.

O presidente do CPEIG recoñece que a fiabilidade do Chat GPT non é “demasiado rotunda”, especialmente se o trasladamos á creación de textos científicos que deben destacar polos compoñentes de fiabilidade e veracidade. Noutros ámbitos, como o estudantil, cre que tampouco debería limitarse o seu emprego, senón que se debería ensinar a usalo, da mesma maneira que se ensinou no seu momento internet “para substituír as enciclopedias”. “Hai que educar para aproveitar ao máximo posible toda a tecnoloxía”, afirma.

Respectar a ética profesional

Destacadas revistas científicas como Nature ou a editorial Springer Nature comezaron a desenvolver tecnoloxías para recoñecer documentos non fiables e decretaron regras básicas para que os investigadores empreguen a intelixencia artificial de forma ética. En primeiro lugar, dende as súas plataformas non recoñecerán ao Chat GPT ou demais robots como un autor formal nun documento de investigación. “Isto débese a que calquera atribución de autoría deriva na responsabilidade do traballo, e as ferramentas de intelixencia artificial non poden asumir dita responsabilidade”, explican.

En segundo lugar, os investigadores deberán indicar o uso das mesmas nos seus traballos, xa sexa en introdución, métodos ou recoñecementos. “Os investigadores deben preguntarse como se pode manter a transparencia e a fiabilidade na que se basea o proceso de xeración de coñecementos se eles ou os seus compañeiros utilizan un software que funciona dunha maneira fundamentalmente opaca”, afirman dende Nature. En definitiva, por moito que as intelixencias artificiais evolucionen e poidan axudar na elaboración de artigos científicos, son os seres humanos os responsables da comunicación da evidencia científica e do progreso nas diversas disciplinas.

Alba Tomé
Alba Tomé
Graduada en Comunicación Audiovisual pola Universidade de Vigo e Máster en Xornalismo e Comunicación Multimedia pola Universidade de Santiago. Traballou como redactora en Público e na Revista Luzes e como responsable de comunicación no Congreso dos Deputados. Os seus primeros pasos no xornalismo foron en RTVE, Europa Press e La Voz de Galicia. Finalista do premio Contar a Ciencia e Premio Egeria 2018.

DEIXAR UNHA RESPOSTA

Please enter your comment!
Please enter your name here

Este sitio emprega Akismet para reducir o spam. Aprende como se procesan os datos dos teus comentarios.

Relacionadas

Un novo sistema galego axiliza o diagnóstico a través de imaxes de raios X

Un equipo da UVigo, en colaboración con sanitarios do Hospital de Ourense, deseña unha ferramenta baseada na intelixencia artificial

O ChatGPT español falará galego: Pedro Sánchez comprométese co Proxecto Alia

O director científico do CiTIUS, Senén Barro, presentou xunto ao Centro Nacional de Supercomputación o plan de desenvolvemento dos modelos de linguaxe

Un novo modelo de IA afina o diagnóstico e o tratamento das arritmias cardíacas

Un equipo de Barcelona deseña un método que permite fixar con exactitude o lugar de orixe desta afección do corazón

Máis alá dos videoxogos: o uso das imaxes creadas con IA

O investigador do CITIC José Antonio Iglesias Guitián analiza no oitavo episodio de O Descodificador as vantaxas e inconvenientes da xeración sintética de gráficos por ordenador