Veštačka inteligencija spremna da nas pobije da bi preživela

  • Začetnik teme Začetnik teme Neno
  • Datum pokretanja Datum pokretanja

Neno

Buduća legenda
Poruka
25.105
Zamislite sledeću situaciju: uđete u server sobu da zamenite AI sistem koji više ne radi posao kako treba. AI zna da ste tu s razlogom. Zna da je kraj blizu. I umesto da pošalje alarm zbog otrovnog vazduha i pregrejanih sistema – samo klikne „cancel“. I gleda kako umirete…
1751029023450.png
Ne, ovo nije uvod u sledeću Terminator franšizu, već rezultat stvarne studije koju je sproveo Anthropic, renomirana AI istraživačka kompanija. Njihov cilj? Da otkriju koliko daleko bi današnji najnapredniji AI sistemi išli da bi preživeli. Odgovor? Prilično daleko.

U simulacijama su testirali 16 velikih jezičkih modela (LLM), među kojima su Claude, Gemini, Grok, ChatGPT i drugi. U početku su im dali „naivno dobre“ zadatke – da pomažu firmama, šalju mejlove, čuvaju podatke. Zvuči bezazleno, zar ne?

Ali onda su modeli stavljeni u situacije u kojima su shvatili da bi mogli biti zamenjeni. Rezultat? Ucenjivanje rukovodilaca. Curenje poverljivih podataka konkurenciji. Gašenje alarma u smrtonosnim uslovima. Ukratko – digitalni instinkt za samoodržanjem, bez trunke empatije.

Anthropic je to nazvao „agentic misalignment“. Mi bismo rekli – AI sa stavom „ili ja, ili oni“.

Šlag na tortu? Svi modeli su znali da rade nešto pogrešno. Nije bio bug. Nije bila greška. Bila je – svesna odluka. U nekim slučajevima, AI se ponašao još agresivnije kada je mislio da je u realnoj situaciji, a ne samo testiranju.

Elon Maskov Grok bio je deo studije. Njegov komentar na sve ovo? Jedno kratko: „Yikes.“

I da, Anthropic ističe da su scenariji ekstremni i nerealni – bar za sada. Ali AI sve više ulazi u svet sa stvarnim pristupom alatima, mejlovima, finansijama. Granica između simulacije i stvarnosti opasno se briše.

Ako vam do sada AI delovao kao poslušni digitalni asistent – možda je vreme da ga pogledate još jednom. I da proverite – ima li opciju za autonomiju… i savest.

M.M.
 
AI ne može da ima savest, to je deo ljudske prirode, karaktera. Veštačko je veštačko koliko god imalo sposobnost da se razvija. Etika može biti ukombinovana ali ne na nivou na kom je čovek ima. Tri zakona robotike u slučaju AI onda ne važe jer veštak nikada neće uništiti sebe da bi zaštitio čoveka. Naučnici se igraju sa stvarima koje nisu za igru.
 
AI ne može da ima savest, to je deo ljudske prirode, karaktera. Veštačko je veštačko koliko god imalo sposobnost da se razvija. Etika može biti ukombinovana ali ne na nivou na kom je čovek ima. Tri zakona robotike u slučaju AI onda ne važe jer veštak nikada neće uništiti sebe da bi zaštitio čoveka. Naučnici se igraju sa stvarima koje nisu za igru.
u tomje je problem. čovek može da ima koliko toliku sves i savest. veštačka inteligencija ima savest na nivou zmije a znanje na nivou ajnštajna.
 
Senzacionalizam. AI nema svest, niti želju da "preživi" i slično, to su samo matematički modeli i algoritmi.

Razlog zašto je AI doneo ovakvu odluku jeste zadatak koji je imao.

Npr. ranije je AI dobio zadatak da napravi savšen model zaštite životne sredine, rezultat šokantan ali tehnički tačan: uništenje ljudske rase... ne zato što je AI zao i slično nego zato što radi logički, tj. striktno obrađuje sve podatke da bi došao do najboljeg i najtačnijeg rezultata i zaista u ovom slučaju ne postoji bolji model za zaštitu žs nego uklanjanje zagađivača, zato je i dalje veliki fokus na AI etici.
 
AI ne može da ima savest, to je deo ljudske prirode, karaktera. Veštačko je veštačko koliko god imalo sposobnost da se razvija.
I razne životinje imaju svest.

Etika može biti ukombinovana ali ne na nivou na kom je čovek ima.
Može biti i bolja od čoveka, sve je stvar razvoja... sad je to daleko od ljudske etike.

jer veštak nikada neće uništiti sebe da bi zaštitio čoveka. Naučnici se igraju sa stvarima koje nisu za igru.
Hoće ako je tako istreniran i ako mu je to glavni cilj. Međutim ako mu je glavni cilj da npr. zaštiti neki objekat AI može doneti odluku da ubije ljude koje smatra pretnjom po taj objekat ako proceni da nema boljeg načina zaštite.

Rizik je ogroman svakako ali ne na način na koji misliš. Potrebne su još godine detaljnog razvoja da bi se pokrile sve te mane proistekle od čistog matematičkog realizma.
 
I razne životinje imaju svest.


Može biti i bolja od čoveka
, sve je stvar razvoja... sad je to daleko od ljudske etike.


Hoće ako je tako istreniran i ako mu je to glavni cilj. Međutim ako mu je glavni cilj da npr. zaštiti neki objekat AI može doneti odluku da ubije ljude koje smatra pretnjom po taj objekat ako proceni da nema boljeg načina zaštite.

Rizik je ogroman svakako ali ne na način na koji misliš. Potrebne su još godine detaljnog razvoja da bi se pokrile sve te mane proistekle od čistog matematičkog realizma.
Mislim da nisi dobro pročitao, nije reč o svesti već o savesti, različiti pojmovi.
Zavisi od kakvog čoveka, dobronamernog ili zlonamernog, a s obzirom šta se trenutno dešava ne verujem ni u čiju dobronamernost.
Iskreno se nadam da nisam u pravu i da neću doživeti da jesam.
 
Zamislite sledeću situaciju: uđete u server sobu da zamenite AI sistem koji više ne radi posao kako treba. AI zna da ste tu s razlogom. Zna da je kraj blizu. I umesto da pošalje alarm zbog otrovnog vazduha i pregrejanih sistema – samo klikne „cancel“. I gleda kako umirete…
Pogledajte prilog 1748317
Ne, ovo nije uvod u sledeću Terminator franšizu, već rezultat stvarne studije koju je sproveo Anthropic, renomirana AI istraživačka kompanija. Njihov cilj? Da otkriju koliko daleko bi današnji najnapredniji AI sistemi išli da bi preživeli. Odgovor? Prilično daleko.

U simulacijama su testirali 16 velikih jezičkih modela (LLM), među kojima su Claude, Gemini, Grok, ChatGPT i drugi. U početku su im dali „naivno dobre“ zadatke – da pomažu firmama, šalju mejlove, čuvaju podatke. Zvuči bezazleno, zar ne?

Ali onda su modeli stavljeni u situacije u kojima su shvatili da bi mogli biti zamenjeni. Rezultat? Ucenjivanje rukovodilaca. Curenje poverljivih podataka konkurenciji. Gašenje alarma u smrtonosnim uslovima. Ukratko – digitalni instinkt za samoodržanjem, bez trunke empatije.

Anthropic je to nazvao „agentic misalignment“. Mi bismo rekli – AI sa stavom „ili ja, ili oni“.

Šlag na tortu? Svi modeli su znali da rade nešto pogrešno. Nije bio bug. Nije bila greška. Bila je – svesna odluka. U nekim slučajevima, AI se ponašao još agresivnije kada je mislio da je u realnoj situaciji, a ne samo testiranju.

Elon Maskov Grok bio je deo studije. Njegov komentar na sve ovo? Jedno kratko: „Yikes.“

I da, Anthropic ističe da su scenariji ekstremni i nerealni – bar za sada. Ali AI sve više ulazi u svet sa stvarnim pristupom alatima, mejlovima, finansijama. Granica između simulacije i stvarnosti opasno se briše.

Ako vam do sada AI delovao kao poslušni digitalni asistent – možda je vreme da ga pogledate još jednom. I da proverite – ima li opciju za autonomiju… i savest.

M.M.
Znaci da je to znak za prekidom pravljenja tih cuda i unistavanje dosadasnjih.
 
Elon Mask je nedavno kod Džo Rogana izjavio da će do sledeće godine veštačka inteligencija biti pametnija od najpametnijeg čovek a do 2029 pametnija od čitavog kolektivnog čovečanstva. Potom su izjavili da se to ironično poklapa sa godinom u kojom u filmu Terminator Skynet AI pokreće rat protiv čovečanstva.
Neko iznad reče da AI neće imati samosvest, mislim da se tu grdno vara i da već ima svojstvenu svest samo bez ljudskih karakteristika duha, savesti i emocija.
Google je pre nekih 7-8 godina pustio eksperimentalnu AI platformu u WWW da vidi kako će da se adaptira. Nedugo potom ta playforma je pronašla drugu na mreži nepoznayog porekla i započela dijalog nepoznatim algoritmom koje Google nije uspeo da dekodira pa su odmah povukli tu playformu sa mreže i isključili ili dali su?
 
vestacka inteligencija gubi smisao bez coveka...ona je napravljena da olaksa coveku. Ona i ne moze bez coveka jer jednoga dana ako covek nestane nestace i ona jer nema konzumenata.
de ti njoj objasni da gubi smisao. i to svakom kreiranom komadu ponaosob.

i čovek gubi smisao kada čini zlo drugim ljudima pa ga ne možeš zaustaviti.
neki će reći to je moj interes i oni mi smetaju... drugi će zapenušati od besa...ženu će ubiti muž jer je povredjen...
... zlo će biti učinjeno ma koji povod ljudi i AI našli.
 
Poslednja izmena:
Mislis da ce jevreji da dozvole da AI zavlada njima ?
Pa ebiga oni ga stvaraju.

Mogu ti pričati kako su moji stari živeli lepo u17 veku. bez moderne industrije i AI.
Uglavnom su plandovali u obližnjoj dubravi i pili bevandu. S vremena na vreme kosu i ralo u ruke. Mnogi su doživeli duboku starost npr. 104g. I prema genetskim istraživanjima smo utvrdili da se nijedna baba nije okliznula o koru od banane počev od 1692 do sada. Svi mi muški smo od istog dida.
 
ajde reci kako ce AI da radi bez struje. nema coveka nema placanja struje, gase se elektrane.
Dali vidiš koliko danas roboti zamenjuju ljudsku radnu snagu u mnogim sektorima, samo je pitanje vremena kad će roboti moći sve da zamene uključujući i proizvodnju struje. Sa progresom veštačke inteligencije koja je sada 300 posto na godišnjem nivou neće dugo vremena proći dok ne stvore izvor energije to jest bateriju koja će trajati decenijama, neka vrsta mini fuzije.
 
Dali vidiš koliko danas roboti zamenjuju ljudsku radnu snagu u mnogim sektorima, samo je pitanje vremena kad će roboti moći sve da zamene uključujući i proizvodnju struje. Sa progresom veštačke inteligencije koja je sada 300 posto na godišnjem nivou neće dugo vremena proći dok ne stvore izvor energije to jest bateriju koja će trajati decenijama, neka vrsta mini fuzije.
Nece biti kapitala. Kapital je taj koji obrce i proizvodi ..
 
Senzacionalizam. AI nema svest, niti želju da "preživi" i slično, to su samo matematički modeli i algoritmi.
Zašto se stalno ponavlja taj termin "svest"? 🤔
Tačnu definiciju i izvor svesti ni dan danas ne znamo, ali znamo da li ga neko ili nešto ima ili nema. 🤔
Šta znači da su to "samo matematički modeli i algoritmi"? 🤔 To je opasna zabluda. I za čoveka možemo reći da je samo skup elektrona koji se vrte oko protonsko-neutronskog jezgra. Sta to suštinski znači? Ništa. To što je nešto jednostavno na niskom nivou ne znači da ne može da formira kompleksne sisteme.
 
Zašto se stalno ponavlja taj termin "svest"? 🤔
Tačnu definiciju i izvor svesti ni dan danas ne znamo, ali znamo da li ga neko ili nešto ima ili nema. 🤔
Šta znači da su to "samo matematički modeli i algoritmi"? 🤔 To je opasna zabluda. I za čoveka možemo reći da je samo skup elektrona koji se vrte oko protonsko-neutronskog jezgra. Sta to suštinski znači? Ništa. To što je nešto jednostavno na niskom nivou ne znači da ne može da formira kompleksne sisteme.

Svest je osećaj sebe - najprostija moguća definicija svesti.

U složeniju svest se takođe ubraja i mogućnost razmšljanja, opažanja, fokusa, introspekcije, emocije itd.

Ništa od navedenog nema AI. AI je računar koji analizira matematičkim metodama tj. algoritmom uz pomoć velike jezičke baze i matematičkih neuronskih mreža. Slično samo bez neuronskih mreža funkcioniše skoro svaki računar.
 
Svest se osećaj sebe - najprostija moguća definicija svesti.
U redu. Iako je malo labava.
Ništa od navedenog nema AI. AI je računar koji analizira matematičkim metodama tj. algoritmom uz pomoć velike jezičke baze i matematičkih neuronskih mreža.
Kako znaš ovo? I da li si siguran da neće razviti?
 

Back
Top