Quan la guerra es programa: la IA militar i el repte estratègic del segle XXI

Quan la guerra es programa: la IA militar i el repte estratègic del segle XXI

La intel·ligència artificial ja no és només una eina per escriure textos, recomanar vídeos o automatitzar processos empresarials. També s’ha convertit en un element central de la transformació militar global. I això obre un debat inquietant: què passa quan la guerra deixa de dependre exclusivament del judici humà i entra en mans d’algoritmes, sistemes autònoms i dades massives?

Aquest és el tema del número especial que prepara la revista científica ESMIC per al tercer trimestre de 2027, sota el títol Artificial Intelligence, Autonomous Weapons, and the Transformation of Strategic Stability, amb un detall rellevant per a casa nostra: un dels editors convidats és el doctor Santiago Tejedor Calvo, professor de la Universitat Autònoma de Barcelona, juntament amb Luis M. Romero-Rodríguez (University of Sharjah).

És una convocatòria acadèmica, sí, però sobretot és un símptoma clar: la guerra algorítmica ja és un tema central en l’agenda internacional.

La IA no és només tecnologia: és un canvi de paradigma

El document parteix d’una idea contundent: la incorporació de la IA en els afers militars no és una simple evolució tècnica, sinó una transformació profunda de la guerra. La combinació de bases de dades immenses, aprenentatge automàtic i autonomia robòtica està alterant els fonaments de la dissuasió, el comandament militar i fins i tot l’ètica del conflicte armat.

En altres paraules: no estem parlant només d’armes més sofisticades, sinó d’una nova manera de concebre la seguretat i l’estabilitat global.

Armes autònomes letals: qui decideix quan es dispara?

Un dels eixos centrals del monogràfic és el debat sobre els LAWS (Lethal Autonomous Weapons Systems), armes capaces d’identificar i atacar objectius sense intervenció humana directa.

Això planteja una frontera moral inquietant: podem acceptar que una màquina decideixi sobre la vida o la mort? Qui n’assumeix la responsabilitat legal si un algoritme comet un error irreversible?

Aquest debat, que sembla futurista, ja és present a les Nacions Unides i als fòrums de defensa europeus, però encara no existeix una regulació internacional clara.

Comandament i control: la velocitat pot ser el perill

La IA també s’està integrant en sistemes de comandament militar i presa de decisions. Pot ajudar a processar informació amb més rapidesa, anticipar moviments, optimitzar logística o reduir costos operatius.

Però el risc és evident: en situacions de crisi, la velocitat algorítmica pot superar la capacitat humana de supervisió. Una escalada militar pot desencadenar-se abans que ningú tingui temps d’interpretar què està passant.

La dissuasió del segle XXI pot dependre, literalment, d’un sistema automàtic.

Guerra cognitiva: la batalla també és informativa

Un altre tema especialment actual és el de la guerra cognitiva i les campanyes de desinformació impulsades per IA.

Els conflictes moderns no només es lliuren sobre el terreny, sinó també en l’opinió pública: deepfakes, propaganda automatitzada, manipulació emocional, intoxicació informativa.

Aquí, la IA esdevé una arma d’influència massiva, capaç d’alterar percepcions i debilitar democràcies sense necessitat de disparar un sol tret.

El concepte clau: “control humà significatiu”

La convocatòria insisteix en una expressió que ja és central en el debat internacional: meaningful human control, és a dir, la necessitat que sempre hi hagi un control humà real sobre qualsevol decisió letal.

Però què vol dir exactament “significatiu”? Un operador que valida un atac amb un clic? Un comandant que confia cegament en la màquina? O un sistema amb supervisió humana efectiva?

Definir aquest límit serà determinant per al futur del dret internacional humanitari.

Europa i Catalunya: un debat que també ens interpel·la

Pot semblar un tema llunyà, però Europa fa temps que intenta posicionar-se entre dues forces: els Estats Units i la Xina, líders en desenvolupament d’IA militar. La sobirania digital i tecnològica ja no és només una qüestió econòmica, sinó també estratègica.

Que un acadèmic de la UAB sigui editor d’aquest número especial és un senyal que el debat també passa per universitats i centres de recerca del nostre entorn. Catalunya no és aliena a aquestes discussions: en defensa, en ciberseguretat i també en ètica tecnològica.

Cal dir, finalment, que aquest número especial vol transcendir la fascinació tecnològica per plantejar preguntes fonamentals: com canviarà la guerra quan els algoritmes siguin actors operatius? Com es manté l’estabilitat estratègica en un món d’armes autònomes? Quin paper han de jugar les normes internacionals?

Potser la gran qüestió no és si la guerra serà automatitzada, sinó si la humanitat sabrà posar límits abans que sigui massa tard… EL BLOC DE L’ESTANIS / COMUNICACIÓ 360º (Il·lustració: Human Rights Watch)