Veštačka inteligencija spremna da nas pobije da bi preživela

Neno

Elita
Poruka
24.732
Zamislite sledeću situaciju: uđete u server sobu da zamenite AI sistem koji više ne radi posao kako treba. AI zna da ste tu s razlogom. Zna da je kraj blizu. I umesto da pošalje alarm zbog otrovnog vazduha i pregrejanih sistema – samo klikne „cancel“. I gleda kako umirete…
1751029023450.png
Ne, ovo nije uvod u sledeću Terminator franšizu, već rezultat stvarne studije koju je sproveo Anthropic, renomirana AI istraživačka kompanija. Njihov cilj? Da otkriju koliko daleko bi današnji najnapredniji AI sistemi išli da bi preživeli. Odgovor? Prilično daleko.

U simulacijama su testirali 16 velikih jezičkih modela (LLM), među kojima su Claude, Gemini, Grok, ChatGPT i drugi. U početku su im dali „naivno dobre“ zadatke – da pomažu firmama, šalju mejlove, čuvaju podatke. Zvuči bezazleno, zar ne?

Ali onda su modeli stavljeni u situacije u kojima su shvatili da bi mogli biti zamenjeni. Rezultat? Ucenjivanje rukovodilaca. Curenje poverljivih podataka konkurenciji. Gašenje alarma u smrtonosnim uslovima. Ukratko – digitalni instinkt za samoodržanjem, bez trunke empatije.

Anthropic je to nazvao „agentic misalignment“. Mi bismo rekli – AI sa stavom „ili ja, ili oni“.

Šlag na tortu? Svi modeli su znali da rade nešto pogrešno. Nije bio bug. Nije bila greška. Bila je – svesna odluka. U nekim slučajevima, AI se ponašao još agresivnije kada je mislio da je u realnoj situaciji, a ne samo testiranju.

Elon Maskov Grok bio je deo studije. Njegov komentar na sve ovo? Jedno kratko: „Yikes.“

I da, Anthropic ističe da su scenariji ekstremni i nerealni – bar za sada. Ali AI sve više ulazi u svet sa stvarnim pristupom alatima, mejlovima, finansijama. Granica između simulacije i stvarnosti opasno se briše.

Ako vam do sada AI delovao kao poslušni digitalni asistent – možda je vreme da ga pogledate još jednom. I da proverite – ima li opciju za autonomiju… i savest.

M.M.
 
AI ne može da ima savest, to je deo ljudske prirode, karaktera. Veštačko je veštačko koliko god imalo sposobnost da se razvija. Etika može biti ukombinovana ali ne na nivou na kom je čovek ima. Tri zakona robotike u slučaju AI onda ne važe jer veštak nikada neće uništiti sebe da bi zaštitio čoveka. Naučnici se igraju sa stvarima koje nisu za igru.
 
AI ne može da ima savest, to je deo ljudske prirode, karaktera. Veštačko je veštačko koliko god imalo sposobnost da se razvija. Etika može biti ukombinovana ali ne na nivou na kom je čovek ima. Tri zakona robotike u slučaju AI onda ne važe jer veštak nikada neće uništiti sebe da bi zaštitio čoveka. Naučnici se igraju sa stvarima koje nisu za igru.
u tomje je problem. čovek može da ima koliko toliku sves i savest. veštačka inteligencija ima savest na nivou zmije a znanje na nivou ajnštajna.
 
Senzacionalizam. AI nema svest, niti želju da "preživi" i slično, to su samo matematički modeli i algoritmi.

Razlog zašto je AI doneo ovakvu odluku jeste zadatak koji je imao.

Npr. ranije je AI dobio zadatak da napravi savšen model zaštite životne sredine, rezultat šokantan ali tehnički tačan: uništenje ljudske rase... ne zato što je AI zao i slično nego zato što radi logički, tj. striktno obrađuje sve podatke da bi došao do najboljeg i najtačnijeg rezultata i zaista u ovom slučaju ne postoji bolji model za zaštitu žs nego uklanjanje zagađivača, zato je i dalje veliki fokus na AI etici.
 
AI ne može da ima savest, to je deo ljudske prirode, karaktera. Veštačko je veštačko koliko god imalo sposobnost da se razvija.
I razne životinje imaju svest.

Etika može biti ukombinovana ali ne na nivou na kom je čovek ima.
Može biti i bolja od čoveka, sve je stvar razvoja... sad je to daleko od ljudske etike.

jer veštak nikada neće uništiti sebe da bi zaštitio čoveka. Naučnici se igraju sa stvarima koje nisu za igru.
Hoće ako je tako istreniran i ako mu je to glavni cilj. Međutim ako mu je glavni cilj da npr. zaštiti neki objekat AI može doneti odluku da ubije ljude koje smatra pretnjom po taj objekat ako proceni da nema boljeg načina zaštite.

Rizik je ogroman svakako ali ne na način na koji misliš. Potrebne su još godine detaljnog razvoja da bi se pokrile sve te mane proistekle od čistog matematičkog realizma.
 
I razne životinje imaju svest.


Može biti i bolja od čoveka
, sve je stvar razvoja... sad je to daleko od ljudske etike.


Hoće ako je tako istreniran i ako mu je to glavni cilj. Međutim ako mu je glavni cilj da npr. zaštiti neki objekat AI može doneti odluku da ubije ljude koje smatra pretnjom po taj objekat ako proceni da nema boljeg načina zaštite.

Rizik je ogroman svakako ali ne na način na koji misliš. Potrebne su još godine detaljnog razvoja da bi se pokrile sve te mane proistekle od čistog matematičkog realizma.
Mislim da nisi dobro pročitao, nije reč o svesti već o savesti, različiti pojmovi.
Zavisi od kakvog čoveka, dobronamernog ili zlonamernog, a s obzirom šta se trenutno dešava ne verujem ni u čiju dobronamernost.
Iskreno se nadam da nisam u pravu i da neću doživeti da jesam.
 
Zamislite sledeću situaciju: uđete u server sobu da zamenite AI sistem koji više ne radi posao kako treba. AI zna da ste tu s razlogom. Zna da je kraj blizu. I umesto da pošalje alarm zbog otrovnog vazduha i pregrejanih sistema – samo klikne „cancel“. I gleda kako umirete…
Pogledajte prilog 1748317
Ne, ovo nije uvod u sledeću Terminator franšizu, već rezultat stvarne studije koju je sproveo Anthropic, renomirana AI istraživačka kompanija. Njihov cilj? Da otkriju koliko daleko bi današnji najnapredniji AI sistemi išli da bi preživeli. Odgovor? Prilično daleko.

U simulacijama su testirali 16 velikih jezičkih modela (LLM), među kojima su Claude, Gemini, Grok, ChatGPT i drugi. U početku su im dali „naivno dobre“ zadatke – da pomažu firmama, šalju mejlove, čuvaju podatke. Zvuči bezazleno, zar ne?

Ali onda su modeli stavljeni u situacije u kojima su shvatili da bi mogli biti zamenjeni. Rezultat? Ucenjivanje rukovodilaca. Curenje poverljivih podataka konkurenciji. Gašenje alarma u smrtonosnim uslovima. Ukratko – digitalni instinkt za samoodržanjem, bez trunke empatije.

Anthropic je to nazvao „agentic misalignment“. Mi bismo rekli – AI sa stavom „ili ja, ili oni“.

Šlag na tortu? Svi modeli su znali da rade nešto pogrešno. Nije bio bug. Nije bila greška. Bila je – svesna odluka. U nekim slučajevima, AI se ponašao još agresivnije kada je mislio da je u realnoj situaciji, a ne samo testiranju.

Elon Maskov Grok bio je deo studije. Njegov komentar na sve ovo? Jedno kratko: „Yikes.“

I da, Anthropic ističe da su scenariji ekstremni i nerealni – bar za sada. Ali AI sve više ulazi u svet sa stvarnim pristupom alatima, mejlovima, finansijama. Granica između simulacije i stvarnosti opasno se briše.

Ako vam do sada AI delovao kao poslušni digitalni asistent – možda je vreme da ga pogledate još jednom. I da proverite – ima li opciju za autonomiju… i savest.

M.M.
Znaci da je to znak za prekidom pravljenja tih cuda i unistavanje dosadasnjih.
 

Back
Top