Američki Pentagon je najavio integraciju Grok AI modela, razvijenog u kompaniji xAI Elona Maska, u svoje operativne sisteme, uključujući i okruženja sa osetljivim i klasifikovanim podacima.
Vest je izazvala reakcije zato što se ne radi o neutralnom asistentu, već o modelu koji je od početka građen kao provokativan, direktan i relativno slabo normativno ograničen.
Grok nije pravljen kao “AI za ljude”, već kao AI za uticaj.
Njegov javni identitet je vezan za ton koji je suprotan od većine velikih modela: manje oprezan, više “rez” i često bez društveno prihvatljivih kočnica. U civilnom svetu to proizvodi kontroverze. U vojnom svetu to se može doživeti kao prednost, jer institucije tog tipa ne biraju alate po reputaciji, nego po performansu i korisnosti u realnim situacijama.
Pentagonova logika je jasna. Potrebni su im sistemi koji mogu brzo da obrade ogromne količine informacija, izgrade scenarije, pomognu u analizi rizika i podrže odlučivanje.
U tom kontekstu, modeli sa jakim ograničenjima se često posmatraju kao “šum”. Grok se uklapa u potrebu za “manje filtera, više izlaza”.
Problem je što takav pristup nosi ozbiljne rizike.
Prvi rizik je eskalacija. Model koji nema dovoljno normativnih kočnica može da predlaže agresivnije opcije, da preuveliča opasnost, da pogrešno rangira ciljeve, ili da pređe granicu između analize i spekulacije na način koji deluje uverljivo.
U aplikacijama za zabavu ili mreže to je neprijatno. U vojnom lancu odlučivanja to može da bude preskupo.
Drugi rizik je privatizacija infrastrukture moći. Kada država vezuje ključne procese za alat privatne kompanije, ona stvara dugoročnu zavisnost, smanjuje transparentnost i otvara pitanje kontrole. Čak i ako su ugovori strogi i pristup ograničen, sam princip pomeranja kritičnih sposobnosti u privatnu sferu menja odnos između javnog interesa i korporativnih ciljeva.
Treći rizik je promena same definicije vojne nadmoći. U 20. veku moć se merila platformama i arsenalom. Danas sve više zavisi od algoritama, brzine obrade signala, kvaliteta scenarija i sposobnosti da se odluke donesu brže od protivnika. Ako AI postaje deo procesa odlučivanja, onda on više nije alat koji “služi”, nego oružje koja oblikuje ishod.
U tom okviru, Mask se pojavljuje ne kao moralista, nego kao strateg. Njegov obrazac nije “da li je ispravno”, već “gde je zalog”. Ulazak u vojno-bezbednosni ekosistem znači pristup najvažnijim tokovima resursa, podataka i uticaja. Grok u Pentagonu zato za njega deluje kao logičan.
Ovo otvara ključna pitanja koja prevazilaze jednu kompaniju i jedan model. Ko definiše šta je “dobar” rezultat u kriznim situacijama. Ko postavlja granice, i kako se proverava da li model uopšte radi ono što mislimo da radi. Kako se sprečava da uverljiva greška postane odluka.
Grok u Pentagonu je signal jedne šire promene. AI se premešta iz prostora proizvoda u prostor infrastrukture. A infrastruktura, po definiciji, menja pravila igre.
Komentari (0)