- Poruka
- 15.722
Upotreba alata vještačke inteligencije (AI) u vazdušnim napadima na Iran označila je početak nove ere ratovanja.
Prema pisanju "Wall Street Journala" i "Axios-a", američka vojska koristila je alate za obaveštajne svrhe, kao i za pomoć pri izboru ciljeva i sprovođenje simulacija u ratnoj zoni.
Stručnjaci ovaj tip ratovanja opisuju kao bombardovanje ,,brže od brzine misli”. Dok američka vojska koristi napredne sisteme za planiranje i izvršenje napada, raste zabrinutost da bi ljudski faktor u donošenju ključnih odluka mogao postati suvišan.

AI SKRAĆUJE VRIJEME PLANIRANJA
Prema navodima vojnih analitičara i akademika, vještačka inteligencija dramatično skraćuje vrijeme potrebno za planiranje složenih udara. Ovaj fenomen, poznat kao ,,kompresija odlučivanja”, omogućava da se procesi koji su nekada trajali danima ili nedjeljama – od identifikacije cilja do pravnog odobrenja i lansiranja projektila – sada završe u roku od nekoliko minuta ili čak sekundi, prenosi B92.
,,AI mašina daje preporuke za ciljeve brzinom koja prevazilazi ljudsku misao”, izjavio je Kreg Džouns, stručnjak za ,,lance ubijanja” sa Univerziteta u Njukaslu. On ističe da ovakva brzina omogućava istovremene atentate na vođe režima i uništavanje balističkih kapaciteta, ne ostavljajući protivniku vremena za reakciju.
SISTEM ANTHROPIC I DALJE U UPOTREBI
Izvještaji sugerišu da je američka vojska tokom baražnih napada koristila AI model kompanije Anthropic kako bi ,,skratila lanac ubijanja”. Iako je administracija najavila obustavljanje saradnje sa ovom kompanijom zbog njihovog odbijanja da dozvole korišćenje AI za potpuno autonomno oružje, sistem je i dalje u upotrebi. Istovremeno, konkurentski OpenAI je ubrzano potpisao ugovor sa Pentagonom za vojnu upotrebu svojih modela.
OPASNOST: VOJNI I PRAVNI STRUČNJACI ĆE POSTATI SAMO FIGURE?
Profesor Dejvid Lesli sa ,,Univerziteta Queen Mary” u Londonu upozorava na opasnost od ,,kognitivnog rasterećenja”. Postoji strah da će vojni i pravni stručnjaci postati samo figure koje mehanički odobravaju planove koje je generisala mašina, gubeći osjećaj odgovornosti za posljedice.
Vrlo zanimljivo, sa AI dronovima i AI koji bira ciljeve za krstareće rakete ,
i još kada se unaprede roboti , ratovi za otimanje resursa biće mnogo opušteniji za vojne slile koje imaju napredan AI.
I pri greškama kao ova što je bila bombardovanje škole u Iranu sa sitnom ženskom decom AI se ne potresa mnogo......
Prema pisanju "Wall Street Journala" i "Axios-a", američka vojska koristila je alate za obaveštajne svrhe, kao i za pomoć pri izboru ciljeva i sprovođenje simulacija u ratnoj zoni.
Stručnjaci ovaj tip ratovanja opisuju kao bombardovanje ,,brže od brzine misli”. Dok američka vojska koristi napredne sisteme za planiranje i izvršenje napada, raste zabrinutost da bi ljudski faktor u donošenju ključnih odluka mogao postati suvišan.
AI SKRAĆUJE VRIJEME PLANIRANJA
Prema navodima vojnih analitičara i akademika, vještačka inteligencija dramatično skraćuje vrijeme potrebno za planiranje složenih udara. Ovaj fenomen, poznat kao ,,kompresija odlučivanja”, omogućava da se procesi koji su nekada trajali danima ili nedjeljama – od identifikacije cilja do pravnog odobrenja i lansiranja projektila – sada završe u roku od nekoliko minuta ili čak sekundi, prenosi B92.
,,AI mašina daje preporuke za ciljeve brzinom koja prevazilazi ljudsku misao”, izjavio je Kreg Džouns, stručnjak za ,,lance ubijanja” sa Univerziteta u Njukaslu. On ističe da ovakva brzina omogućava istovremene atentate na vođe režima i uništavanje balističkih kapaciteta, ne ostavljajući protivniku vremena za reakciju.
SISTEM ANTHROPIC I DALJE U UPOTREBI
Izvještaji sugerišu da je američka vojska tokom baražnih napada koristila AI model kompanije Anthropic kako bi ,,skratila lanac ubijanja”. Iako je administracija najavila obustavljanje saradnje sa ovom kompanijom zbog njihovog odbijanja da dozvole korišćenje AI za potpuno autonomno oružje, sistem je i dalje u upotrebi. Istovremeno, konkurentski OpenAI je ubrzano potpisao ugovor sa Pentagonom za vojnu upotrebu svojih modela.
OPASNOST: VOJNI I PRAVNI STRUČNJACI ĆE POSTATI SAMO FIGURE?
Profesor Dejvid Lesli sa ,,Univerziteta Queen Mary” u Londonu upozorava na opasnost od ,,kognitivnog rasterećenja”. Postoji strah da će vojni i pravni stručnjaci postati samo figure koje mehanički odobravaju planove koje je generisala mašina, gubeći osjećaj odgovornosti za posljedice.
Vrlo zanimljivo, sa AI dronovima i AI koji bira ciljeve za krstareće rakete ,
i još kada se unaprede roboti , ratovi za otimanje resursa biće mnogo opušteniji za vojne slile koje imaju napredan AI.
I pri greškama kao ova što je bila bombardovanje škole u Iranu sa sitnom ženskom decom AI se ne potresa mnogo......
