Revista de Ştiinţe Militare 1/2026  
ROLUL INTELIGENȚEI ARTIFICIALE MILITARE  
ÎN EVOLUȚIA CONFLICTELOR  
ROLE OF MILITARY ARTIFICIAL INTELLIGENCE  
IN THE EVOLUTION OF CONFLICTS  
General-locotenent (rtr.) prof. univ. dr. Cristea DUMITRU  
(Academy of Romanian Scientists, 3 Ilfov Street, 050044, Bucharest,  
Romania, email: secretariat@aosr.ro)  
Rezumat: Inteligența artificială poate accelera ritmul războiului, dar cu  
toate acestea, arhitectura de securitate trebuie, de asemenea, să accelereze și să se  
aprofundeze în același ritm, construind o nouă generație de capacități.  
Adevărata provocare în domeniul inteligenței artificiale (IA) militare este  
menținerea responsabilității umane și a înțelepciunii politice, păstrând în același  
timp superioritatea tehnologică, dar tinzând spre atingerea dominației algoritmice.  
Prin urmare, fiecare măsură tehnică, juridică și etică luată astăzi va modela nu  
numai natura războiului, ci și viitorul ordinii internaționale.  
Cuvinte cheie: inteligența artificială militară, arhitectura de securitate,  
norme în domeniul IA, IA în operații militare, controlul uman în IA militară, hiper-  
război.  
Abstract: Artificial intelligence may accelerate the pace of war, but security  
architecture must also accelerate and deepen at the same pace, building a new  
generation of capabilities.  
The real challenge in military artificial intelligence (AI) is to maintain  
human accountability and political wisdom while maintaining technological  
superiority as we move toward algorithmic dominance. Therefore, every technical,  
legal, and ethical step taken today will shape not only the nature of war but also the  
future of the international order.  
Keywords: military artificial intelligence, security architecture, AI norms,  
AI in military operations, human control in military AI, hyper-war.  
Experții militari consideră că inteligența artificială (IA) poate accelera  
ritmul războiului și poate determina succesul în luptă, dar arhitectura de  
securitate trebuie să accelereze, adapteze și să se aprofundeze în același ritm,  
construind și dezvoltând o nouă generație de capacități. Dacă lucrurile nu vor  
sta așa, fragilitatea/entropia stabilității strategice va crește în cadrul ciclurilor  
de decizie de milisecunde ale tehnologiei de război de ultimă generație,  
propulsată de inteligența artificială.  
Periodic, responsabilii cu IA în domeniul militar se întâlnesc în cadrul  
unor summituri axate pe utilizarea responsabilă a inteligenței artificiale în  
domeniul militar. Astfel, au avut loc asemenea întâlniri la Haga în 2023,  
Seoul în 2024 și în februarie 2026 în Spania. După summitul din acest an la  
care au participat experți din 85 de țări, s-a elaborat o declarație care cuprinde  
Membru titular al Academiei Oamenilor de Știință din România, Secția de Științe Militare,  
email: cristea.dumitru@force1.ro.  
5
 
Revista de Ştiinţe Militare 1/2026  
20 de principii-cheie. Astfel, principiile asumate în declarația menționată  
anterior includ menținerea responsabilității umane pentru armele bazate pe  
IA, stabilirea unor lanțuri clare de comandă și control, schimbul de informații  
privind mecanismele naționale de supraveghere, accent pe evaluarea  
riscurilor, procesele de instruire și testare a personalului militar. Totodată,  
această abordare este considerată prea prudentă de către unele state, în special  
acele state unde investițiile în IA sunt primordiale. Această prudență și  
reglementare exagerată, este considerată a induce întârzieri critice în  
dezvoltarea impetuoasă a tehnologiilor IA, cuantice, iar orice întârziere sau  
pierdere a inițiativei în acest domeniu extrem de dinamic, în termeni militari,  
poate constitui un deficit catastrofal. Realitatea este că trăim începutul unei  
noi ere a omenirii, era IA, o eră a roboților inteligenți, a calculului cuantic, a  
tehnologiilor care schimbă ordinea socială bazată pe muncă. Această  
transformare colosală, generează dezechilibre sociale seismice, care aproape  
inevitabil conduc la declanșarea unor conflicte atât interne cât și  
internaționale, dificil de controlat și de stopat. Angoasa acestei perspective  
induce soluția unor reglementări prudente, cu toate că acestea nu ar avea  
niciun efect eficient, în timp ce tocmai accelerarea dezvoltării IA și atingerea  
unui prag al superinteligenței generale, ar oferi soluții sistemice problemelor  
sociale și ar elimina cauzele profunde ale conflictelor mondiale.  
Este evident că decenii de ignorare a potențialului avansurilor  
tehnologice de către domeniul politic și economic, au generat o surpriză, o  
lipsă totală de pregătire și în consecință un recul în adoptarea IA pe scară largă  
și tendința de suprareglementare, inclusiv în domeniul militar. Riscul este că,  
în domeniul militar, actorul care încalcă regulile, poate crea un avantaj  
insurmontabil într-un eventual conflict, dacă atinge dominația IA. Totodată,  
odată asigurată dominația IA, nu există șanse de revenire a adversarului, iar  
pierderea este definitivă și cataclismică. Astfel că viitoarele conflicte vor fi  
conflicte pentru dominația algoritmilor.  
La summiturile REAIM (responsabilității IA în domeniul militar) din  
2023 și 2024, numeroase țări coordonate de SUA, au adoptat un cadru de  
principii mai sensibil. Anul acesta însă, faptul că două țări-lider în domeniul  
tehnologiei IA, SUA și China, nu au semnat declarația și că numărul țărilor  
care au ratificat-o a fost limitat (35), a demonstrat cât de limitată este  
producerea și partajarea unui set de norme și principii acceptate la nivel  
internațional. Din păcate, până acum, în sistemul internațional nu s-a stabilit  
încă un numitor comun în ceea ce privește IA în domeniul militar.  
Această situație, pe lângă transformarea aprofundată declanșată de  
tehnologiile IA în mediul operațional, poate fi considerată o amenințare la  
adresa securității.  
Inteligența artificială militară în contextul amenințărilor la  
adresa securității  
La această oră utilizarea IA în context militar acoperă o gamă largă de  
domenii, de la comandă și control și sprijin în luarea deciziilor până la  
6
Revista de Ştiinţe Militare 1/2026  
războiul electronic și cibernetic, apărarea antirachetă și vehiculele aeriene,  
terestre și navale fără pilot.  
În numeroase scenarii, care depășesc capacitatea cognitivă umană sau  
necesită analiză rapidă a seturilor de date mari și complexe, IA funcționează  
ca un element-cheie. Procesele tehnologice realizate plasează deja aproape  
toate necesitățile spațiului de luptă modern în această categorie. Cu alte  
cuvinte, IA deja duce războiul într-o dimensiune care depășește percepția și  
reacția umană. Este deja o realitate faptul că, în acest nou tip de război, definit  
în literatura de specialitate ca „HIPER-RĂZBOI”, ciclul de luare a deciziilor  
și de execuție poate fi finalizat în milisecunde.  
Este clar că în acest moment, devine necesar să se ia în considerare  
controlul uman, dintr-o necesitate și perspectivă mult mai largă decât  
simplul „deget care apasă pe trăgaci”.  
Se impune așadar ca primul pas în această direcție să fie  
proiectarea controlului uman ca o componentă semnificativă și eficientă în  
toate etapele procedeelor de utilizare a IA. O astfel de structură ar asigura că  
responsabilitatea etică și juridică pentru utilizarea inteligenței artificiale  
rămâne în întregime sub controlul, în responsabilitatea și competența umană.  
Totodată, trebuie luate în calcul și vulnerabilitățile tehnologiilor IA, cea mai  
mare fiind impulsurile electromagnetice puternice, vulnerabilități care ar  
putea elimina rapid avantajele unei armate ultratehnologizate.  
Al doilea pas ar fi dezvoltarea de filtre și bariere pentru a împiedica  
sistemele și procesele gestionate direct sau indirect de către IA să se  
„alimenteze negativ” reciproc, să interacționeze și să escaladeze conflictul. O  
atare structură de filtrare pe mai multe niveluri ar putea preveni alarmele false,  
„halucinațiile IA”, lipsa de conștiență sau angajamentele nedorite.  
Al treilea pas crucial al gestionării riscurilor de securitate internă în  
inteligența artificială militară ar putea fi validarea securității și integritatea  
algoritmilor și a seturilor de date pe care le alimentează. Prevenirea  
contaminării seturilor de date, identificarea condițiilor și momentelor în care  
algoritmii IA nu pot lua decizii complet autonome, precum și certificarea și  
monitorizarea algoritmilor și a hardware-ului pe care rulează, sunt măsuri  
importante în acest context.  
Cu toate acestea, este important să scoatem în evidență că lipsa unui  
consens minim la nivel global în ceea ce privește IA militară face imposibilă  
adoptarea de măsuri structurate etice, juridice și normative în acest domeniu.  
Asistăm astăzi la agravarea deficitului strategic internațional de încredere  
existent și mai mult de atractivitatea oportunităților și a capacităților oferite  
de inteligența artificială militară; preocupările exprimate din când în când de  
diverse grupuri de lobby și state sub titluri precum: drepturile omului,  
confidențialitatea și protecția datelor cu caracter personal devin slabe în fața  
eficacității crescânde a inteligenței artificiale în operațiunile militare.  
7
Revista de Ştiinţe Militare 1/2026  
Reglementarea inteligenței artificiale. Limite și cerințe  
În acest moment se impune să ne întrebăm cum putem determina dacă  
un software sau un algoritm IA este sigur sau „uman”. La nivelul experților  
în IA se propune ca pentru inteligența artificială militară să se înființeze o  
structură similară cu Agenția Internațională pentru Energie Atomică (AIEA),  
care supraveghează instalațiile nucleare. Dar trebuie subliniat faptul că acele  
coduri care alcătuiesc algoritmul nu lasă urme ca elementele radioactive iar  
urmărirea sursei codului este mult mai dificilă decât supravegherea înființării  
și funcționării unei instalații nucleare. Totuși, ca soluție, se propune  
înființarea unor „camere de control algoritmice” în care țările ar testa și  
verifica sistemele de inteligență artificială fără a dezvălui arhitectura lor  
fundamentală și componentele confidențiale. Astfel, certificarea rezultată din  
testele efectuate în aceste medii de simulare ar putea stabili un standard în  
domeniul comercial cât și în cel militar.  
Așadar, este important să subliniem că problema principală nu este  
dacă IA va fi utilizată în spațiul de luptă, ci cum, de către cine și în ce limite  
va fi utilizată. Totodată, se arată în mod clar că elaborarea de norme în  
domeniul inteligenței artificiale militare nu poate fi considerată independent  
de competiția dintre marile puteri. Se impune ca liderii tehnologiei ca SUA și  
China să-și intensifice participarea la elaborarea normelor în vederea creării  
unui cadru etic global, acceptat în domeniul IA generative.  
Spre exemplu, China a declarat că modernizarea militară, planificată  
de mult timp se va desfășura în trei faze distincte, dar suprapuse: mecanizarea,  
adică  
adoptarea  
mașinăriilor  
și  
echipamentelor  
moderne;  
informatizarea/digitalizarea, adică integrarea tehnologiilor avansate ale  
informației și ale rețelelor cibernetice pentru a conecta platformele militare și  
a permite schimbul de informații în timp real și inteligențizare, adică  
aplicarea inteligenței artificiale pentru automatizarea operațiunilor, susținerea  
luării deciziilor și controlului armelor avansate. Astăzi, China pune un accent  
mai mare pe integrarea IA în armata sa prin prototipizarea capabilităților IA  
care pot pilota vehicule de luptă fără pilot, pot detecta și răspunde la atacuri  
cibernetice, pot urmări nave maritime, submarine pot identifica și lovi ținte  
pe uscat, pe mare și în spațiu.  
Armata chineză dezvoltă, de asemenea, sisteme care preiau,  
analizează și augmentează cantități masive de date pentru a îmbunătăți  
luarea deciziilor tactice și strategice, precum și instrumente care creează  
imagini deepfake și videoclipuri pentru campanii de dezinformare. În  
consecință, Beijing-ul consideră că armata care va dezvolta și adopta mai  
bine inteligența artificială și alte tehnologii emergente va obține un avantaj  
major în războaiele viitoare, mai ales acele tehnologii IA care susțin și  
accelerează luarea deciziilor. Experimentele IA ale armatei chineze se  
extind și la operațiile cibernetice și informaționale, dezvoltă instrumente IA  
pentru a automatiza detectarea intruziunilor în rețelele sale de calculatoare,  
pentru a spori reziliența comunicațiilor militare și pentru a-și spori  
operațiunile cibernetice. Între timp, ofițerii și soldații chinezi folosesc  
sisteme IA pentru a simula câmpuri de luptă virtuale și pentru a modela  
8
Revista de Ştiinţe Militare 1/2026  
comportamentul concurenților, ceea ce le îmbunătățește antrenamentul  
pentru conflictele viitoare.  
Armata chineză aplică tot mai mult IA pentru a diminua avantajele  
SUA în spațiu și maritim. Aceasta urmărește deschis algoritmi pentru  
targetingul sateliților precum și noi arme antisateliți, unele dintre acestea  
implicând roboți mici care pot captura și dezactiva platformele spațiale ale  
adversarului. China își propune să construiască o armată care să valorifice  
tehnologiile avansate pentru a învăța, adopta și lua decizii rapid și mai precis  
în toate domeniile operaționale. Cu siguranță drumul Chinei nu va fi lin.  
Armata chineză încă se confruntă cu obstacole în integrarea inteligenței  
artificiale în întreaga sa forță și în operațiile sale. Mai mult, antrenarea  
sistemelor IA necesită o cantitate mare de date care nu sunt ușor disponibile  
pe internet, cum ar fi imagini clasificate ale platformelor militare sau  
semnăturile electromagnetice ale diferitelor radare și arme.  
Dacă liderii tehnologici precum SUA și China nu participă la discuții,  
eforturile de creare a unui cadru etic global acceptat vor rămâne inevitabil  
limitate.  
La  
nivel  
național,  
instituționalizarea  
unor  
măsuri  
precum  
supravegherea umană semnificativă, securitatea algoritmică, integritatea  
datelor și mecanismele de filtrare pe mai multe niveluri este o necesitate  
urgentă. Acest lucru se datorează faptului că o parte semnificativă a riscurilor  
generate de inteligența artificială militară nu provin din utilizarea intenționată  
în mod abuziv, ci din defecte de proiectare, date inexacte, interacțiuni  
imprevizibile și presiunea pentru viteză.  
   
Inteligența artificială poate accelera războiul, dar cu toate acestea,  
arhitectura de securitate trebuie, de asemenea, să accelereze și să se  
aprofundeze în același ritm, construind o nouă generație de capacități.  
Adevărata provocare în domeniul inteligenței artificiale (IA) militare  
este menținerea responsabilității umane și a înțelepciunii politice, păstrând în  
același timp superioritatea tehnologică. Prin urmare, fiecare măsură tehnică,  
juridică și etică luată astăzi va modela nu numai natura războiului, ci și  
viitorul ordinii internaționale.  
BIBLIOGRAFIE  
HOROWITZ M. „Artificial Intelligence, International Competition, and the  
Balance of Power”, Texas National Security Review, disponibil la  
competition-and-the-balance-of-power/;  
9
Revista de Ştiinţe Militare 1/2026  
HOROWITZ M., „The promise and peril of military applications of artificial  
intelligence”, Bulletin of the Atomic Scientists, disponibil la  
applications-of-artificial-intelligence/;  
TALBERT E. „Capcana triajului. Când viteza AI înlocuiește judecata la  
comandă”, ianuarie 2026;  
TUCKER P., „How NATO's Transformation Chief is Pushing the Alliance to  
Keep Up in AI",  
nchiefispushingthealliancetokeepupinai/148301/.  
Surse web  
10