Luns 9 Marzo 2026

Nexus: o novo libro que advirte do control polos tiranos da intelixencia artificial

*Artigo de Logo The Conversation

O historiador israelí Yuval Noah Harari converteuse coa súa obra Sapiens nun gurú recoñecido mundialmente. Dez anos despois publicou Nexus. Unha breve historia das redes de información desde a Idade de Pedra ata a IA. Esta vez o seu relato aborda a hiperconexión da nosa era e o poder dos algoritmos, e profetiza o desenvolvemento dunha intelixencia artificial todopoderosa que podería outorgar aos tiranos un control absoluto da humanidade.

Publicidade

Harari simplifícao mediante un discurso apto para todos os públicos sobre o futuro da IA, baseado en hipóteses concretas e interesantes, que vai ilustrando cos datos históricos que domina. A cuestión da trama, como nos artigos académicos, céntrase nas devanditas hipóteses.

China, á cabeza

Harari apóiase en contextos históricos que innegablemente poden ser trasladados á situación actual, limiar dunha nova revolución tecnolóxica. Compara así o despregamento das primeiras liñas de ferrocarril ao comezo da Revolución Industrial co milenio actual e a revolución tecnolóxica que supuxo Internet. En ambas épocas, a iniciativa privada asumiu o risco tecnolóxico, guiada por consideracións de mercado, como no noso tempo fixeron Google, Facebook, Amazon etc.

Publicidade

Chegado o momento, os estados tomaron o control dos ferrocarrís, ao comprender o seu potencial estratéxico. Hoxe, no desenvolvemento de algoritmos e IA estatais, China leva a dianteira.

As vantaxes para un estado ditatorial

É extremadamente interesante o punto de vista da obra, segundo o cal, na fase de iniciativa estatal, unha ditadura cunha gran poboación —e, por tanto, unha gran capacidade de xeración de datos— e escasas restricións lexislativas posúe enorme vantaxe fronte a sociedades libres fortemente reguladas, consideracións morais aparte. Este sería o caso de China fronte á Unión Europea, pioneira nunha lexislación que trata de poñer límite ao uso da intelixencia artificial.

Aparentemente, aínda estamos lonxe desta segunda fase, pois os xigantes tecnolóxicos aínda levan a iniciativa. Así, escribe Harari:

“Cando os xigantes tecnolóxicos […] propóñense deseñar mellores algoritmos, normalmente poden facelo”.

Con todo, hai dúas décadas criamos que China nunca igualaría a Silicon Valley —de feito nin sequera foi unha posibilidade— e hoxe os drons chineses non só dominan o mercado, senón que sucan os ceos de Ucraína como a vangarda da guerra do futuro.

Imperios e libros sacros

A comparación de Harari dos imperios coloniais occidentais co desenvolvemento actual de ferramentas de control da poboación mediante IA é certeira e estremecedora.

É brillante o paralelismo que establece entre verdades indiscutibles (unha IA, supostamente infalible, fronte a libros sacros); autoridades de interpretación (os gobernos actuais fronte a igrexas e clérigos) e mecanismos de autocorrección (a ciencia actual fronte á súa práctica ausencia no pasado).

Igrexas e clérigos foron as autoridades indiscutibles na interpretación dos textos sacros. Hoxe, son as sociedades e os gobernos quen ha de interpretar as decisións da IA. E fronte a ameaza dunha IA todopoderosa, Harari advirte que só se salvará á humanidade con mecanismos de corrección que limiten e corrixan os seus efectos.

A IA como ferramenta de orde

Cales serán os mecanismos de autocorrección dun mundo aumentado pola intelixencia artificial? Actuará a IA como unha ferramenta que potencie o desexo intrínseco de orde nas sociedades con recursos limitados, comprometendo os ideais de progreso en liberdade que actualmente damos por sentados?

O que está claro é que a IA será un actor parcialmente autónomo e, como tal, os mecanismos de corrección deberán ser externos.

Harari lévanos a ponderar que o perigo non é a IA “descontrolada” do imaxinario colectivo, senón o seu emprego por parte de sociedades que a utilicen como ferramenta de orde e control, así como o efecto da súa mera existencia na propia evolución das sociedades.

Nalgún momento podería chegar o que Harari chama “novos señores supremos da IA” con poderes absolutos. Un señor supremo da IA podería decidir deseñar un novo virus pandémico, ou asolagar as redes con noticias falsas ou incitacións á revolta.

O control dos tiranos

O equilibrio entre sociedades enfrontadas aumentadas por IA —escribe Harari en Nexus— será moito máis inestable que o que existía entre as potencias nucleares separadas polas fronteiras da Guerra Fría. A razón é que agora é moito maior a incerteza, propia de sistemas con maiores graos de liberdade, sen un coñecemento seguro sobre as accións e as súas consecuencias.

Profetiza Harari que unha IA centralizada pasará a ser un recurso cuxo control levará a conflitos e enfrontamentos.

O autor fuxe da banalidade da IA como unha entidade totalmente autónoma á marxe dos dirixentes humanos (aínda que ilustra esa posibilidade con interesantes exemplos do Imperio romano), pero identifica acertadamente o risco de que se centralice e pase a ser un recurso cuxo control sexa motivo de disputa entre os tiranos.

O pano de silicio

Harari menciona panos de silicio virtuais, pero certamente estamos a presenciar o despregamento de panos de silicio físicos. A computación aínda depende de recursos moi custosos claramente localizados: centros de datos potentes, ligazóns troncais que soportan conexións masivas entre distintas áreas xeográficas etc.

Con todo, a deslocalización da IA é factible. É dicir, aínda que a día de hoxe a computación aínda se pode dividir ao ditado dos gobernos seguindo fronteiras físicas, é posible que esta limitación desapareza pronto e que a IA pase a converterse nun poder omnipresente que só exista na ciberesfera, algo que ata o de agora só vimos na ciencia ficción. Nese momento nada será como hoxe cremos, para ben ou para mal.

Harari, se serve de consolo, é optimista.


*Sobre o autor: Francisco Javier González Castaño é catedrático da Universidade de Vigo na área de Enxeñaría Telemática.

*Cláusula de divulgación: Francisco Javier González Castaño non recibe salario, nin exerce labores de consultoría, nin posúe accións, nin recibe financiamento de ningunha compañía ou organización que poida obter beneficio deste artigo, e declarou carecer de vínculos relevantes máis aló do cargo académico citado.

Francisco Javier González Castaño
Francisco Javier González Castaño
Catedrático da Universidade de Vigo na área de Enxeñaría Telemática

DEIXAR UNHA RESPOSTA

Please enter your comment!
Please enter your name here

Este sitio usa Akismet para reducir o spam. Aprende como se procesan os datos dos teus comentarios.

Relacionadas

Un equipo da UVigo explora o uso da IA para verificar información con perspectiva de xénero

Un estudo comparativo conclúe que ChatGPT ofrece as respostas máis fiables entre catro modelos analizados e detecta alucinacións en DeepSeek

Cando a IA ‘escoita’ o que escribimos: detección temperá e ética en saúde mental dixital

Os sistemas analizan cambios na linguaxe dos usuarios para anticipar sinais de malestar emocional

Unha tecnoloxía baseada en IA permite detectar violencia de xénero a partir da voz

O sistema creado por investigadoras madrileñas analiza trazos como o ton e a intensidade e identifica sinais de trauma sen acceder ao contido das conversacións

O Sergas empregará IA para apoiar a análise de imaxes clínicas

O obxectivo é examinar anualmente 1,5 millóns de radiografías de tórax, 150.000 de cribados citolóxicos, 100.000 probas oftalmolóxicas e 40.000 para a detección de cancro de mama e próstata