Dok kompanije poput Anthropic-a (Američka kompanija za AI) raspravljaju o granicama vojne upotrebe veštačke inteligencije, neke tehnološke firme već razvijaju sisteme koji bi mogli da planiraju i vode vojne operacije na bojnom polju.
Jedan od njih je Smack Technologies, kompanija koja je ove nedelje objavila da je prikupila 32 miliona dolara investicija. Njeni osnivači tvrde da rade na modelima koji bi uskoro mogli da nadmaše mogućnosti poznatog AI sistema Claude kada je reč o planiranju i izvođenju vojnih operacija. Za razliku od Anthropic-a, ova firma očigledno ima mnogo manje dilema oko toga kako bi se njihova tehnologija mogla koristiti u vojsci.
Direktor kompanije Endi Markof smatra da je odgovornost za etičku upotrebu tehnologije pre svega na ljudima koji je koriste.
Kada služite u vojsci, polažete zakletvu da ćete služiti časno, u skladu sa zakonom i pravilima ratovanja, kaže Markof. Po njegovom mišljenju, oni koji koriste tehnologiju i brinu o njenoj etičkoj primeni treba da budu ljudi u uniformi.
Markof nije tipičan direktor tehnološke kompanije. Nekada je bio komandant u američkim specijalnim snagama marinaca i učestvovao je u visokorizičnim operacijama u Iraku i Avganistanu. Smack Technologies osnovao je zajedno sa Klintom Alanisom, takođe bivšim marincem, i Danom Guldonom, kompjuterskim naučnikom koji je ranije bio potpredsednik za tehnologiju u kompaniji Tinder.
Modeli koje razvija Smack uče kroz proces pokušaja i grešaka, slično načinu na koji je Google trenirao svoj čuveni program AlphaGo 2017. godine. Sistem se izlaže velikom broju simulacija ratnih scenarija, takozvanih ratnih igara, dok stručni analitičari procenjuju da li je strategija koju je model izabrao uspešna. Na osnovu tih procena model postepeno uči koje su odluke najefikasnije.
Iako Smack nema budžet kakav imaju najveće laboratorije koje razvijaju veštačku inteligenciju, Markof tvrdi da kompanija ipak ulaže milione dolara u treniranje svojih prvih modela.

Vojna upotreba veštačke inteligencije
Tema vojne upotrebe veštačke inteligencije poslednjih meseci postala je jedna od najkontroverznijih u Silicijumskoj dolini. Posebnu pažnju izazvao je sukob između američkog Ministarstva odbrane i kompanije Anthropic tokom pregovora o ugovoru vrednom oko 200 miliona dolara.
Jedan od ključnih razloga zbog kojih je saradnja zapela bio je zahtev kompanije Anthropic da se ograniči upotreba njihovih modela u autonomnom naoružanju. Nakon toga američki ministar odbrane Pit Hegseth čak je proglasio Anthropic potencijalnim rizikom u lancu snabdevanja.
Markof smatra da se u toj raspravi često zanemaruje jedna važna činjenica. Današnji veliki jezički modeli, kaže on, nisu zapravo prilagođeni vojnim zadacima.
Modeli opšte namene, poput Claude-a, veoma su dobri u analiziranju i sažimanju izveštaja. Međutim, oni nisu trenirani na vojnim podacima i nemaju dovoljno razvijeno razumevanje fizičkog sveta, zbog čega nisu pogodni za upravljanje stvarnim vojnim sistemima. Prema njegovim rečima, takvi modeli trenutno nisu sposobni ni za pouzdano prepoznavanje ciljeva.
Markof tvrdi i da u američkom vojnom vrhu niko ozbiljno ne govori o potpunoj automatizaciji takozvanog lanca odlučivanja o upotrebi smrtonosne sile, odnosno procesa koji vodi od identifikacije cilja do odluke o napadu.
Ipak, autonomno oružje već postoji. U određenim situacijama vojske već koriste sisteme koji mogu samostalno da reaguju, posebno u protivraketnoj odbrani gde je brzina reakcije presudna.
Prema rečima Rebeke Krutof, stručnjakinje za pravna pitanja autonomnog naoružanja sa Univerziteta u Ričmondu, Sjedinjene Države i više od trideset drugih država već koriste sisteme oružja sa različitim stepenom autonomije, a neki od njih se mogu smatrati potpuno autonomnim.

AI za planiranje vojnih misija
U budućnosti bi specijalizovani AI modeli poput onih koje razvija Smack mogli da se koriste i za planiranje vojnih misija. Ideja je da se komandantima pomogne da automatizuju veliki deo rutinskog posla koji danas podrazumeva ručno crtanje planova na tablama i vođenje beleški.
Markof veruje da bi u eventualnom sukobu sa velikom silom poput Rusije ili Kine takvi sistemi mogli da pruže Sjedinjenim Državama ogromnu prednost u brzini donošenja odluka.
Ipak, ostaje pitanje koliko bi veštačka inteligencija bila pouzdana u tako kritičnim situacijama. Jedan nedavni eksperiment koji je sproveo istraživač sa londonskog King’s Collegea pokazao je zabrinjavajući rezultat. U simulacijama ratnih scenarija jezički modeli često su donosili odluke koje su vodile eskalaciji nuklearnog sukoba.
Savremeni ratovi već pokazuju koliko su važni relativno jeftini poluautonomni sistemi zasnovani na komercijalnoj tehnologiji. Rat između Rusije i Ukrajine posebno je istakao značaj dronova i drugih sistema koji koriste standardni hardver i softver.
Još 2023. godine američka mornarica testirala je nove autonomne sisteme u Persijskom zalivu, između ostalog za otkrivanje dronova koje koriste pobunjeničke grupe povezane sa Iranom.
Ipak, mnogi stručnjaci upozoravaju da bi trebalo jasno definisati granice upotrebe veštačke inteligencije u vojsci, posebno zato što su mnogi ugovori koje vojske trenutno potpisuju prilično široko formulisani.
Ana Hehir, koja u organizaciji Future of Life Institute vodi programe za upravljanje vojnom upotrebom veštačke inteligencije, upozorava da bi čak i sistemi koji danas nisu direktno povezani sa autonomnim oružjem u budućnosti mogli postati deo procesa donošenja odluka o napadima.
Prema njenim rečima, veštačka inteligencija je i dalje previše nepouzdana, nepredvidiva i teško objašnjiva da bi se koristila u situacijama gde su ulozi izuzetno visoki. Takvi sistemi, kaže ona, ne mogu pouzdano da razlikuju borca od civila, a kamoli da prepoznaju čin predaje.
Markof, međutim, smatra da će određena ograničenja autonomije verovatno uvek biti neophodna, upravo zbog haosa koji prati svaki rat.
Nikada u stvarnom svetu nisam učestvovao u operaciji koja je čak i polovično išla po planu, kaže on. I to se, dodaje, verovatno nikada neće promeniti.
Izvor: n1info.rs
