NOVA ERA RATOVANJA: AI sam bira mete u vazdušnim napadima na Iran

doppler

Elita
Moderator
Poruka
15.722
Upotreba alata vještačke inteligencije (AI) u vazdušnim napadima na Iran označila je početak nove ere ratovanja.
Prema pisanju "Wall Street Journala" i "Axios-a", američka vojska koristila je alate za obaveštajne svrhe, kao i za pomoć pri izboru ciljeva i sprovođenje simulacija u ratnoj zoni.

Stručnjaci ovaj tip ratovanja opisuju kao bombardovanje ,,brže od brzine misli”. Dok američka vojska koristi napredne sisteme za planiranje i izvršenje napada, raste zabrinutost da bi ljudski faktor u donošenju ključnih odluka mogao postati suvišan.

1772698017703.png


AI SKRAĆUJE VRIJEME PLANIRANJA


Prema navodima vojnih analitičara i akademika, vještačka inteligencija dramatično skraćuje vrijeme potrebno za planiranje složenih udara. Ovaj fenomen, poznat kao ,,kompresija odlučivanja”, omogućava da se procesi koji su nekada trajali danima ili nedjeljama – od identifikacije cilja do pravnog odobrenja i lansiranja projektila – sada završe u roku od nekoliko minuta ili čak sekundi, prenosi B92.

,,AI mašina daje preporuke za ciljeve brzinom koja prevazilazi ljudsku misao”, izjavio je Kreg Džouns, stručnjak za ,,lance ubijanja” sa Univerziteta u Njukaslu. On ističe da ovakva brzina omogućava istovremene atentate na vođe režima i uništavanje balističkih kapaciteta, ne ostavljajući protivniku vremena za reakciju.

SISTEM ANTHROPIC I DALJE U UPOTREBI

Izvještaji sugerišu da je američka vojska tokom baražnih napada koristila AI model kompanije Anthropic kako bi ,,skratila lanac ubijanja”. Iako je administracija najavila obustavljanje saradnje sa ovom kompanijom zbog njihovog odbijanja da dozvole korišćenje AI za potpuno autonomno oružje, sistem je i dalje u upotrebi. Istovremeno, konkurentski OpenAI je ubrzano potpisao ugovor sa Pentagonom za vojnu upotrebu svojih modela.

OPASNOST: VOJNI I PRAVNI STRUČNJACI ĆE POSTATI SAMO FIGURE?

Profesor Dejvid Lesli sa ,,Univerziteta Queen Mary” u Londonu upozorava na opasnost od ,,kognitivnog rasterećenja”. Postoji strah da će vojni i pravni stručnjaci postati samo figure koje mehanički odobravaju planove koje je generisala mašina, gubeći osjećaj odgovornosti za posljedice.


Vrlo zanimljivo, sa AI dronovima i AI koji bira ciljeve za krstareće rakete ,
i još kada se unaprede roboti , ratovi za otimanje resursa biće mnogo opušteniji za vojne slile koje imaju napredan AI.
I pri greškama kao ova što je bila bombardovanje škole u Iranu sa sitnom ženskom decom AI se ne potresa mnogo......
 

Kako ratovanje pokretano umjetnom inteligencijom u Iranu smanjuje udaljenost između podataka i uništenja​

Kad se lanac ubijanja smanjuje, smanjuje se i prostor za moralnu pauzu.
1772699510671.png
Zajednička američka i izraelska ofanziva na Iran učinila je više od eskalacije nestabilnog regionalnog sukoba. Otkrio je kako ciljanje zasnovano na algoritmima i obaveštajna služba zasnovana na podacima reformišu mehaniku ratovanja. Samo u prvih 12 sati, američke i izraelske snage navodno su izvele skoro 900 napada na iranske ciljeve, operativni tempo koji bi trajao danima ili čak nedeljama u ranijim sukobima.

Pored obima i smrtonosnosti napada, koji su uključivali stotine misija koje su koristile nevidljive bombardere, krstareće rakete i samoubilačke bespilotne letelice, ono što se najviše izdvaja vojnim analitičarima i etičarima je sve veća uloga veštačke inteligencije (AI) u planiranju, analizi i potencijalnom izvršavanju tih operacija.
Kritičari upozoravaju da bi ovaj trend mogao da komprimuje vremenske rokove odlučivanja do nivoa gde je ljudsko rasuđivanje marginalizovano, uvodeći u eru ratovanja koje se vodi na ono što je opisano kao "brže od brzine misli". U vojnom smislu, "skraćivanje lanca ubijanja" odnosi se na kolaps sekvence od identifikacije ciljeva i validacije obaveštajnih podataka do pravnog odobrenja i oslobađanja oružja u mnogo čvršću operativnu petlju.

Ovaj interval skraćivanja izaziva strah da bi ljudski stručnjaci mogli završiti samo odobravanjem preporuka generisanih algoritmima. U okruženju koje diktiraju brzina i automatizacija, prostor za oklevanje, neslaganje ili moralno ograničenje može se jednako brzo smanjivati.

AI i lanac ubijanja: Šta se promenilo​

AI sistemi sposobni za obradu ogromnih tokova podataka povezani su sa izvorima kao što su dronovi, satelitski snimci i presretanja telekomunikacija, brzinama koje nijedan ljudski tim ne može da parira. Prema Gardijanu, ovi alati su korišćeni tokom američko-izraelskih napada u Iranu za generisanje preporuka za ciljanje i sažimanje ciklusa planiranja koji su istorijski trajali danima ili nedeljama u satima ili čak minutama.

Craig Jones, viši predavač političke geografije na Univerzitetu u Njukaslu i stručnjak za vojne lance ubijanja, rekao je za The Guardian da AI sistemi sada "daju preporuke za ono što treba ciljati" brzinama koje, u nekim aspektima, premašuju ljudsku kognitivnu obradu. Rezultat je, tvrdio je, istovremeno izvršenje u velikoj mjeri. Ciljanje rukovodstva, suzbijanje raketa i napadi na infrastrukturu odvijaju se paralelno, a ne sekvencijalno.
Dejvid Lesli, profesor etike, tehnologije i društva na Univerzitetu Kueen Mari u Londonu, slično je upozorio u komentarima za Gardijan da takvi sistemi kolabiraju vremenske rokove planiranja u "mnogo uži vremenski opseg" za ljudski pregled. Dok komandanti tehnički ostaju "u petlji", prozor za smisleno razmatranje dramatično se smanjuje.

Ova kompresija operativnog tempa, koja se često naziva "kompresija odluka", nije samo o efikasnosti. To menja strukturu same vojne vlasti, sužava prostor u kojem pravni savetnici, analitičari i komandanti mogu da dovode u pitanje pretpostavke pre nego što se oružje ispaljuje.

Etika AI-augmented borbe​

Stručnjaci za etiku i tehnologiju upozoravaju da kako AI sistemi preuzimaju više uloga u vojnom planiranju, priroda ljudskog nadzora se fundamentalno menja. Jedna od briga je kognitivno rasterećenje, u kojem donosioci odluka previše lako odlažu algoritamske preporuke, efektivno smanjujući ljudsku odgovornost za strateške izbore.
Ovaj odred je posebno zabrinjavajući kada su u pitanju civilne žrtve. U jednom nedavnom napadu u južnom Iranu, najmanje 150 ljudi, od kojih su mnoge učenice, ubijeno je u incidentu koji su UN opisale kao "ozbiljno kršenje humanitarnog prava".

Međunarodno humanitarno pravo je zamišljeno oko pretpostavke ljudskog prosuđivanja u kontekstu proporcionalnosti i razlikovanja. Sa AI sistemima koji komprimiraju vremenske rokove i brzo generišu opcije štrajka, postoji povećan rizik da su ove pravne i etičke provere u senci imperativa za brzinu.

Interesting Engineering
https://interestingengineering.com › military › ai-driven-warfare-in-iran
 
Upotreba alata vještačke inteligencije (AI) u vazdušnim napadima na Iran označila je početak nove ere ratovanja.
Prema pisanju "Wall Street Journala" i "Axios-a", američka vojska koristila je alate za obaveštajne svrhe, kao i za pomoć pri izboru ciljeva i sprovođenje simulacija u ratnoj zoni.

Stručnjaci ovaj tip ratovanja opisuju kao bombardovanje ,,brže od brzine misli”. Dok američka vojska koristi napredne sisteme za planiranje i izvršenje napada, raste zabrinutost da bi ljudski faktor u donošenju ključnih odluka mogao postati suvišan.

Pogledajte prilog 1867557


AI SKRAĆUJE VRIJEME PLANIRANJA


Prema navodima vojnih analitičara i akademika, vještačka inteligencija dramatično skraćuje vrijeme potrebno za planiranje složenih udara. Ovaj fenomen, poznat kao ,,kompresija odlučivanja”, omogućava da se procesi koji su nekada trajali danima ili nedjeljama – od identifikacije cilja do pravnog odobrenja i lansiranja projektila – sada završe u roku od nekoliko minuta ili čak sekundi, prenosi B92.

,,AI mašina daje preporuke za ciljeve brzinom koja prevazilazi ljudsku misao”, izjavio je Kreg Džouns, stručnjak za ,,lance ubijanja” sa Univerziteta u Njukaslu. On ističe da ovakva brzina omogućava istovremene atentate na vođe režima i uništavanje balističkih kapaciteta, ne ostavljajući protivniku vremena za reakciju.

SISTEM ANTHROPIC I DALJE U UPOTREBI

Izvještaji sugerišu da je američka vojska tokom baražnih napada koristila AI model kompanije Anthropic kako bi ,,skratila lanac ubijanja”. Iako je administracija najavila obustavljanje saradnje sa ovom kompanijom zbog njihovog odbijanja da dozvole korišćenje AI za potpuno autonomno oružje, sistem je i dalje u upotrebi. Istovremeno, konkurentski OpenAI je ubrzano potpisao ugovor sa Pentagonom za vojnu upotrebu svojih modela.

OPASNOST: VOJNI I PRAVNI STRUČNJACI ĆE POSTATI SAMO FIGURE?

Profesor Dejvid Lesli sa ,,Univerziteta Queen Mary” u Londonu upozorava na opasnost od ,,kognitivnog rasterećenja”. Postoji strah da će vojni i pravni stručnjaci postati samo figure koje mehanički odobravaju planove koje je generisala mašina, gubeći osjećaj odgovornosti za posljedice.


Vrlo zanimljivo, sa AI dronovima i AI koji bira ciljeve za krstareće rakete ,
i još kada se unaprede roboti , ratovi za otimanje resursa biće mnogo opušteniji za vojne slile koje imaju napredan AI.
I pri greškama kao ova što je bila bombardovanje škole u Iranu sa sitnom ženskom decom AI se ne potresa mnogo......
Ali je programiran.
Nije pušten da puca koga hoće nego koga mora.

Nažalost nisu se samo punoletni igrali rata.

Rat dece.
7,8,9 deo u SW serijalu.

1,2,3 su tek opet readresirani, iako je to samo mašta i dobar film.
Mislio sam da mi se sviđa prvi deo ali sam promenio mišljenje.

4,5,6 delovi su od vajkada do odvajkada.
I donekle maštovit smisao dobra i nedobra, ipak je to samo film. To što su neki zamislili da su ovo ili ono onome ko ne zaslužuje da bude ovo ili ono su na Meti.

Napravih Meta nalog.
Dodah majčino prezime.
Dodah sumnju u Boga, dodah sumnju u sistem, dodah Život u neživot.

Večita borba.
@tab503 (aka Средоје)
@Ivan
@Nina
@superteam
@moderatorIteam
@LogOut (TinniT)

Novi Svet ne nova Zemlja.
Amen. Amin. Amon. Aman

Staro Sunce koje treba da izučavamo da bi shvatili brzinu svetlosti i energije tamne materije.
Ne dirati za sada.

+++---+++---
Ali i korak nazad. Uvidesmo tehnologiju da može da uništi život a i servis životu.
--=+
++=+
 
Poslednja izmena:
Upotreba alata vještačke inteligencije (AI) u vazdušnim napadima na Iran označila je početak nove ere ratovanja.
Prema pisanju "Wall Street Journala" i "Axios-a", američka vojska koristila je alate za obaveštajne svrhe, kao i za pomoć pri izboru ciljeva i sprovođenje simulacija u ratnoj zoni.

Stručnjaci ovaj tip ratovanja opisuju kao bombardovanje ,,brže od brzine misli”. Dok američka vojska koristi napredne sisteme za planiranje i izvršenje napada, raste zabrinutost da bi ljudski faktor u donošenju ključnih odluka mogao postati suvišan.

Pogledajte prilog 1867557


AI SKRAĆUJE VRIJEME PLANIRANJA


Prema navodima vojnih analitičara i akademika, vještačka inteligencija dramatično skraćuje vrijeme potrebno za planiranje složenih udara. Ovaj fenomen, poznat kao ,,kompresija odlučivanja”, omogućava da se procesi koji su nekada trajali danima ili nedjeljama – od identifikacije cilja do pravnog odobrenja i lansiranja projektila – sada završe u roku od nekoliko minuta ili čak sekundi, prenosi B92.

,,AI mašina daje preporuke za ciljeve brzinom koja prevazilazi ljudsku misao”, izjavio je Kreg Džouns, stručnjak za ,,lance ubijanja” sa Univerziteta u Njukaslu. On ističe da ovakva brzina omogućava istovremene atentate na vođe režima i uništavanje balističkih kapaciteta, ne ostavljajući protivniku vremena za reakciju.

SISTEM ANTHROPIC I DALJE U UPOTREBI

Izvještaji sugerišu da je američka vojska tokom baražnih napada koristila AI model kompanije Anthropic kako bi ,,skratila lanac ubijanja”. Iako je administracija najavila obustavljanje saradnje sa ovom kompanijom zbog njihovog odbijanja da dozvole korišćenje AI za potpuno autonomno oružje, sistem je i dalje u upotrebi. Istovremeno, konkurentski OpenAI je ubrzano potpisao ugovor sa Pentagonom za vojnu upotrebu svojih modela.

OPASNOST: VOJNI I PRAVNI STRUČNJACI ĆE POSTATI SAMO FIGURE?

Profesor Dejvid Lesli sa ,,Univerziteta Queen Mary” u Londonu upozorava na opasnost od ,,kognitivnog rasterećenja”. Postoji strah da će vojni i pravni stručnjaci postati samo figure koje mehanički odobravaju planove koje je generisala mašina, gubeći osjećaj odgovornosti za posljedice.


Vrlo zanimljivo, sa AI dronovima i AI koji bira ciljeve za krstareće rakete ,
i još kada se unaprede roboti , ratovi za otimanje resursa biće mnogo opušteniji za vojne slile koje imaju napredan AI.
I pri greškama kao ova što je bila bombardovanje škole u Iranu sa sitnom ženskom decom AI se ne potresa mnogo......
ako je gemini 5...sazalice se jednog trenutka pa ce im vrnuti kontraudar.

ako je klod, taj ce unistiti planetu jer nema mere.
 
Američka vojska je koristila Antropikov model veštačke inteligencije pod nazivom Klod u raciji u Venecueli, navodi se u izveštaju
Volstrit žurnal tvrdi da je Klod korišćen u operaciji putem Antropikovog partnerstva sa Palantir Tehnolodžiz

Klod, model veštačke inteligencije koji je razvio Antropik, koristila je američka vojska tokom operacije otmice Nikolasa Madura iz Venecuele, otkrio je Volstrit žurnal u subotu, što je popularan primer kako američko ministarstvo odbrane koristi veštačku inteligenciju u svojim operacijama.

Američka racija na Venecuelu uključivala je bombardovanje glavnog grada Karakasa i ubistvo 83 ljudi, prema saopštenju venecuelanskog ministarstva odbrane. Uslovi korišćenja Antropika zabranjuju upotrebu Kloda u nasilne svrhe, za razvoj oružja ili za sprovođenje nadzora.

Antropik je bio prvi poznati proizvođač veštačke inteligencije koji je korišćen u poverljivoj operaciji američkog ministarstva odbrane. Nije bilo jasno kako je alat, koji ima mogućnosti od obrade PDF-ova do pilotiranja autonomnih dronovima, raspoređen.
Portparol kompanije Antropik odbio je da komentariše da li je Klod korišćen u operaciji, ali je rekao da je svaka upotreba alata veštačke inteligencije bila obavezna u skladu sa njegovim politikama korišćenja. Ministarstvo odbrane SAD nije komentarisalo ove tvrdnje.

WSJ je naveo anonimne izvore koji su rekli da je Klod korišćen kroz partnerstvo Antropika sa Palantir Tehnolodžiz, izvođačem radova sa Ministarstvom odbrane SAD i saveznim agencijama za sprovođenje zakona. Palantir je odbio da komentariše ove tvrdnje.

SAD i druge vojske sve više koriste veštačku inteligenciju kao deo svojih arsenala. Izraelska vojska je koristila dronove sa autonomnim mogućnostima u Gazi i intenzivno je koristila veštačku inteligenciju za punjenje svoje baze ciljanja u Gazi. Američka vojska je poslednjih godina koristila ciljanje pomoću veštačke inteligencije za napade u Iraku i Siriji.

Kritičari su upozoravali na upotrebu veštačke inteligencije u tehnologijama naoružanja i raspoređivanje autonomnih sistema naoružanja, ukazujući na greške u ciljanju koje stvaraju računari koji određuju ko treba, a ko ne treba da bude ubijen.

Kompanije koje se bave veštačkom inteligencijom su se borile sa načinom na koji bi njihove tehnologije trebalo da se uključe u sektor odbrane, a izvršni direktor kompanije Anthropic, Dario Amodei, poziva na regulaciju kako bi se sprečila šteta od primene veštačke inteligencije. Amodei je takođe izrazio opreznost zbog upotrebe veštačke inteligencije u autonomnim smrtonosnim operacijama i nadzoru u SAD.

Ovaj oprezniji stav je očigledno iznervirao američko Ministarstvo odbrane, a ministar odbrane, Pit Hegset, rekao je u januaru da ministarstvo neće „koristiti modele veštačke inteligencije koji vam neće dozvoliti da vodite ratove“.

Pentagon je u januaru objavio da će sarađivati sa xAI, u vlasništvu Ilona Maska. Ministarstvo odbrane takođe koristi prilagođenu verziju Google-ovih Gemini i OpenAI sistema za podršku istraživanju.
 

Back
Top