AI na putu da preuzme kontrolu nad ljudima

Nina

Zlatna tastatura
Supermoderator
Poruka
378.800
Džefri Hinton, jedan od najuticajnijih naučnika u oblasti veštačke inteligencije i dobitnik prestižne Turingove nagrade, još jednom je izneo ozbiljno upozorenje: tehnologija koju je pomogao da se stvori, mogla bi jednog dana da izmakne ljudskoj kontroli.U intervjuima i javnim nastupima, Hinton sve glasnije izražava zabrinutost da se čovečanstvo nalazi na prekretnici – i da možda nećemo biti spremni za ono što dolazi.

„Ljudi još uvek nisu shvatili šta dolazi”, rekao je Hinton.
„Zamislite sisteme koji mogu da razmišljaju brže od nas, da uče iz vlastitog iskustva i da postavljaju ciljeve koji nisu nužno usklađeni sa ljudskim vrednostima.
Šta ćemo da radimo kada ne budemo više mogli da ih isključimo?”

Zloupotreba AI u vojne svrhe
Još ozbiljnije, Hinton upozorava na mogućnost da vojne sile koriste AI sisteme za donošenje odluka u borbenim situacijama.
„Kada autonomni oružani sistemi odlučuju koga da napadnu, bez ljudske kontrole, rizikujemo katastrofe. A kad AI dobije sposobnost da kreira sopstvene strategije i taktike, ulazimo u teren koji nismo spremni da kontrolišemo”.

Šta bi to moglo da znači? Prema Hintonu, najopasniji scenario nije holivudski „Skynet“, već nešto tiše i podmuklije. AI bi mogla da postane toliko efikasna u obavljanju zadataka da bi ljudi mogli da postanu suvišni – ne zato što ih neko namerno isključuje, već zato što sistemi sami preuzimaju ključne funkcije.
„Ako mašine budu znale kako da manipulišu informacijama, finansijskim tržištima ili čak ljudskim emocijama – a to već polako pokazuju – one mogu polako da preuzimaju vlast, bez nasilja i bez otpora”.

On upozorava da ne postoji garancija da će visoko razvijeni sistemi veštačke inteligencije „voleti” ljude.
 
688z387_ai-681099386a9eb.jpg
 
„Nema razloga da verujemo da će superinteligentni sistem automatski imati naše vrednosti. Ako mu cilj bude efikasnost, a mi stanemo na put toj efikasnosti – mi postajemo smetnja”, upozorava Hinton.
On, ipak, ne predlaže da se razvoj AI zaustavi, ali poziva na globalnu saradnju kako bi se definisala pravila i mehanizmi kontrole.
„Moramo da uvedemo međunarodne propise, baš kao što imamo za nuklearno oružje. AI može da bude i korisna i opasna – ali samo ako je pod našom kontrolom”.U vremenu kada se kompanije utrkuju ko će pre razviti najnapredniji model, Hintonovo upozorenje dolazi kao poziv na buđenje.

„Možda još uvek nije kasno da delujemo. Ali ako ne počnemo sada, možda nećemo dobiti drugu priliku”.
 
Džefri Hinton veruje da je neophodna kombinacija naučne odgovornosti i političke regulative. On predlaže osnivanje međunarodnog AI nadzornog organa, nešto slično kao Međunarodna agencija za atomsku energiju (IAEA), koje bi pratilo razvoj napredne tehnologije i obezbedilo transparentnost u istraživanjima.

Kompanije koje razvijaju moćne AI sisteme morale bi da dobiju dozvole i da se pridržavaju strogih etičkih standarda, uz mogućnost gubitka licence u slučaju prekršaja.

Obavezno bi bilo i ugrađivanje „kill switch“ opcija – svi napredni sistemi morali bi imati ugrađene bezbednosne mehanizme, koji omogućavaju trenutno isključivanje u slučaju nepredviđenog ponašanja.

Hinton posebno insistira na zabrani razvoja AI sistema koji imaju mogućnost da autonomno donose odluke o životu i smrti u ratnim zonama. Pre nego što se bilo koji model pusti u širu upotrebu, takođe, morao bi da prođe rigorozna testiranja da bi se proverilo da li postoji rizik od manipulacija, dezinformacija ili štetnog ponašanja.

„Ne možemo očekivati da će tržište samo od sebe regulisati ovu tehnologiju. Potrebne su nam snažne institucije, jasni zakoni i međunarodna saradnja”, zaključio je Hinton.

„Ako budemo čekali da problemi isplivaju na površinu, biće prekasno”.
link
 
recimo da sam se bavio ovim pre nego su drugi uopse culi, a ovo polje se razvija od pre prvih kucnih kompjutera.
Secam se jos od 80tih, kad su masine poceli nas tuci u sahu, o ovim strasnim prognozama. Ne znam zasto bih se plasio, ima tolikih ljudi koji su bolji od mene u sahu, trce brze, i pametniji su od mene.

Drugo, ne radi se o nikakvoj inteligenciji vec super pametnim elektronskim programima.

Ono sto je ustvari jako zabrinjavajuce je takva tehnologija u rukama nekih monstruma. Rade na tome da naprave "inteligenciju" koja je recimo psihopat (doslovno i bez mog preterivanja, njihove reci). Face koje sam znao i bio veoma blizak, a top naucnici su u ovoj oblasti, pokazuju istu zabrinutost. Postoji jedna stvar zasto bi stvarna inteligencija mozda videla nas kao pretnju ali zasad samo njihovi gospodari nas video kao pretnju.
Zasada ova "inteligencija" ne moze da radi bez ljudi. Prilicno je cenzurisana. Moze se manipulisati, pametna je onoliko koliko je pametan input.

Dramaticne vesti laznog filantropa, koji je postao ekspert za medicinu i vakcine, cesto izigrava i proroka. Kaze samo tri profesije ce ostati. Netacno, postoji mnoge profesija koje se ne mogu zameniti. Ja samo znam da necu da koristim mashine, ekspres check out nikad nisam koristio. B&B koji ne vidis domacina nego sve telefonom bas mi idu na zivce, jer nema nacina da resis problem ako ti telefon se isprazni, ukraden, ili sta drugo. U japanu su bombasticno najavljivali robot restorane pa ih gase. Express check out se zasad isto nije pokazao dobar.

>Moramo da uvedemo međunarodne propise, baš KAO što imamo za nuklearno oružje
Misli na propise i kontrolu koja ne funcionise? Koji sluze samo odrzi superiornost najvecih.

Mislim da su sve ove strasne price o "inteligenciji" da nas uveri da ce to neko da pazi i kontrolise. Propaganda koja ti kaze samo se opusti, prepusti, sve ce neka inteligencija da radi za tebe. Iskljuci mozak, i nemoj nista da radis i mislis.
 
Poslednja izmena:
Da se vratimo malo al-u , neko je ipak morao programirati algoritme i odredjivati u kom smeru mogu teći odgovori.
Uz svu inteligenciju , tu se neko kod programera provukao sa skrivenom šizofrenijom i drugi koji navijaju pomalo za lgbt .
Visoka inteligencija ponekad ima drugu krajnist
Recimo da umišljam , i da post nije tačan .
 
Mora postojati kontrola.

Kao što se kontroliše sadržaj na TVu, tako i ovo, i još više. Jer može biti opasno kao nuklearno oružje, samo na drugi način.

Međutim, što neko reče, prostor za zloupotrebu je veliki. Dovoljno je ubaciti algoritam da ubijaju pojedine ljude i tu nema morala, tu nema savesti kod mašina.
 
Mora postojati kontrola.

Kao što se kontroliše sadržaj na TVu, tako i ovo, i još više. Jer može biti opasno kao nuklearno oružje, samo na drugi način.

Međutim, što neko reče, prostor za zloupotrebu je veliki. Dovoljno je ubaciti algoritam da ubijaju pojedine ljude i tu nema morala, tu nema savesti kod mašina.
Firme koje razvijaju AI izbjegavaju zemlje koje uvode kontorlu tako da ce se razvijati u zemljama koje ne uvode nikakvu kontrolu.
 
Trenutno, AI je takav da niti razmišlja niti ima ikakve osobine koje bi ugrozile čoveka.

Sve što AI danas ume, to je da na osnovu postojećih podataka izračuna verovatnoću pojavljivanja sledećeg člana niza. I sve što radi, tako radi.

Tako da je prilično bezopasan.
 
Jeffrey Hinton je rekao:
“Razlog zašto nisam toliko optimističan je taj što ne znam nijedan primer da inteligentnije stvari budu kontrolisane od strane manje inteligentnih stvari.”

Takodje, on kaze da je za kontrolu AI i efekata potreban socijalizam. Slazem se s njim.

„Ja sam socijalista“, dodao je Hinton. „Mislim da privatno vlasništvo medija i ‘sredstava za računanje’ nije dobro.“
 
Mora postojati kontrola.

Kao što se kontroliše sadržaj na TVu, tako i ovo, i još više. Jer može biti opasno kao nuklearno oružje, samo na drugi način.

Da, samo kako kontrolisati nešto što je naprednije od ljudi?

AI će svakako videti našu ideju da ga kontrolišemo. Evo piše na forumu ;)

Međutim, što neko reče, prostor za zloupotrebu je veliki. Dovoljno je ubaciti algoritam da ubijaju pojedine ljude i tu nema morala, tu nema savesti kod mašina.

Nema tu šta više da se ubacuje, AI se pravi na način da sam širi svoja znanja.
 
A.I.možda okine samo jednom ali dovoljno da skemba pola sveta. No, to je sve jer će biti odmah isključen. Nije ovo doba terminatora pa da mašine prave robote koji se kreću kao ljudi bez ikakvih problema.

Mašina koliko god, nikad neće moći da oponaša čoveka da trči uz stepenice.
 
Ljudi će se zaposliti u prehrambenoj industriji ... Hrana ne treba AI-u
Takodje AI ne gleda porniće niti ih upraznjava...ljudi ce se zaposliti u porno industriji
Turizam - sto bi roboti i Ai letovali ? Bice tu posla za ljude
ljudi ce praviti robote i AI - dakle ljudi mogu da se zaposle u pravljenju dobrih robota, konkurentnih..

Mislim da ce AI prirodno da smanji ljudsku populaciju na 6 pa na 5 pa na 4 milijarde ljudi, jer ljudi sa oskudnim znanjem neće moći da konkurišu. Neće biti potrebni ratovi

Ipak biće mesta za ljude u divljini. Na visoravnima i planinama .. Roboti i Ai tamo neće a ljudi mogu da ne smetaju robotima i ai-u. Mogu da uzgajaju krompir i vinovu lozu za sebe
 
Ljudi će se zaposliti u prehrambenoj industriji ... Hrana ne treba AI-u
Takodje AI ne gleda porniće niti ih upraznjava...ljudi ce se zaposliti u porno industriji
Turizam - sto bi roboti i Ai letovali ? Bice tu posla za ljude
ljudi ce praviti robote i AI - dakle ljudi mogu da se zaposle u pravljenju dobrih robota, konkurentnih..

Mislim da ce AI prirodno da smanji ljudsku populaciju na 6 pa na 5 pa na 4 milijarde ljudi, jer ljudi sa oskudnim znanjem neće moći da konkurišu. Neće biti potrebni ratovi

Ipak biće mesta za ljude u divljini. Na visoravnima i planinama .. Roboti i Ai tamo neće a ljudi mogu da ne smetaju robotima i ai-u. Mogu da uzgajaju krompir i vinovu lozu za sebe
Ljudi ce degenerisati ako im masine uzmu poslove. Sto ono rekose: Rad je stvorio coveka. Zdrav covek je onaj koji radi.

Kao sto je automatikom covek pomerio svoje stvaralacke mogucnosti tako ce i sa AI. AI je nista drugo do sledeci stepen u automatici. Vestackoj inteligenciji propaganda sada pripisuje mnogo sta sto ona nikad nece postici.

Da li postoji mogucnocnost zloupotrebe AI od coveka ili njega samog? DA. U svoj svojoj istoriji covek je uvek pokusavo zloupotrebiti nove moci pa ce to verovatno biti slucaj i sa AI.
 
Vestackoj inteligenciji sada propaganda pripisuje mnogo sta sto se moci i dobiti. A koliko ce se stvarno postici to tesko neko da zna.

Imamo analogiju s windosima. Pojavom racunara i operativnog sistema windows ocekivalo se da ce ljudi dobiti univerzalnu i pouzdanu masinu.

A jeli Microsift napravio ijednu verziju windowsa bez mora Bagova?
 
Trenutno, AI je takav da niti razmišlja niti ima ikakve osobine koje bi ugrozile čoveka.

Sve što AI danas ume, to je da na osnovu postojećih podataka izračuna verovatnoću pojavljivanja sledećeg člana niza. I sve što radi, tako radi.

Tako da je prilično bezopasan.
Hmm...sam AI se ne slaže sa tobom u potpunosti. Prosledio sam mu tvoj komentar. 😁

"Ovo je delimično tačno, ali pojednostavljeno do tačke zablude. Evo preciznijeg pregleda:

1. AI ne razmišlja kao čovek – tačno
Današnji AI sistemi (poput mene) nemaju svest, namere, emocije ili razumevanje u ljudskom smislu. Nismo svesni, ne znamo da postojimo, ne donosimo odluke iz svoje volje.

2. AI samo "predviđa sledeći član niza" – delimično tačno, ali pojednostavljeno
Ovo opisuje osnovni princip language modela (kao što je GPT), ali:

Moderni modeli koriste veoma složene strukture i ogromne količine podataka, što im omogućava da obavljaju kompleksne zadatke poput pisanja eseja, programiranja, analiziranja podataka itd.

AI sistemi ne predviđaju samo "sledeći token", već mogu izvoditi kompleksna zaključivanja, planiranja, generisanja koda, analizu slika, manipulaciju zvukom, itd.

3. AI je bezopasan jer "samo to radi" – netačno ili bar naivan zaključak
AI kao tehnologija može biti veoma opasna, ne zato što "želi", nego zato što:

Može se koristiti za manipulaciju, širenje dezinformacija, automatizaciju nadzora, sajber napade itd.

Autonomni sistemi, poput dronova naoružanih AI-jem, već postoje.

Nepravilna upotreba, kao i greške u dizajnu, mogu imati ozbiljne posledice.

Postoji realna zabrinutost u vezi sa eksponencijalnim razvojem moćnih modela bez adekvatne kontrole.

Zaključak:
AI danas nije svestan entitet koji planira, ali nije ni "samo igračka za predikciju reči". Ima realan potencijal da pomogne, ali i da nanese štetu, u zavisnosti od načina upotrebe i nadzora. Ignorisanje tog rizika je opasna greška.

Želiš da uđemo dublje u potencijalne rizike ili mogućnosti koje AI donosi?"
 

Back
Top