- Poruka
- 378.800
Džefri Hinton, jedan od najuticajnijih naučnika u oblasti veštačke inteligencije i dobitnik prestižne Turingove nagrade, još jednom je izneo ozbiljno upozorenje: tehnologija koju je pomogao da se stvori, mogla bi jednog dana da izmakne ljudskoj kontroli.U intervjuima i javnim nastupima, Hinton sve glasnije izražava zabrinutost da se čovečanstvo nalazi na prekretnici – i da možda nećemo biti spremni za ono što dolazi.
„Ljudi još uvek nisu shvatili šta dolazi”, rekao je Hinton.
„Zamislite sisteme koji mogu da razmišljaju brže od nas, da uče iz vlastitog iskustva i da postavljaju ciljeve koji nisu nužno usklađeni sa ljudskim vrednostima.
Šta ćemo da radimo kada ne budemo više mogli da ih isključimo?”
Zloupotreba AI u vojne svrhe
Još ozbiljnije, Hinton upozorava na mogućnost da vojne sile koriste AI sisteme za donošenje odluka u borbenim situacijama.
„Kada autonomni oružani sistemi odlučuju koga da napadnu, bez ljudske kontrole, rizikujemo katastrofe. A kad AI dobije sposobnost da kreira sopstvene strategije i taktike, ulazimo u teren koji nismo spremni da kontrolišemo”.
Šta bi to moglo da znači? Prema Hintonu, najopasniji scenario nije holivudski „Skynet“, već nešto tiše i podmuklije. AI bi mogla da postane toliko efikasna u obavljanju zadataka da bi ljudi mogli da postanu suvišni – ne zato što ih neko namerno isključuje, već zato što sistemi sami preuzimaju ključne funkcije.
„Ako mašine budu znale kako da manipulišu informacijama, finansijskim tržištima ili čak ljudskim emocijama – a to već polako pokazuju – one mogu polako da preuzimaju vlast, bez nasilja i bez otpora”.
On upozorava da ne postoji garancija da će visoko razvijeni sistemi veštačke inteligencije „voleti” ljude.
„Ljudi još uvek nisu shvatili šta dolazi”, rekao je Hinton.
„Zamislite sisteme koji mogu da razmišljaju brže od nas, da uče iz vlastitog iskustva i da postavljaju ciljeve koji nisu nužno usklađeni sa ljudskim vrednostima.
Šta ćemo da radimo kada ne budemo više mogli da ih isključimo?”
Zloupotreba AI u vojne svrhe
Još ozbiljnije, Hinton upozorava na mogućnost da vojne sile koriste AI sisteme za donošenje odluka u borbenim situacijama.
„Kada autonomni oružani sistemi odlučuju koga da napadnu, bez ljudske kontrole, rizikujemo katastrofe. A kad AI dobije sposobnost da kreira sopstvene strategije i taktike, ulazimo u teren koji nismo spremni da kontrolišemo”.
Šta bi to moglo da znači? Prema Hintonu, najopasniji scenario nije holivudski „Skynet“, već nešto tiše i podmuklije. AI bi mogla da postane toliko efikasna u obavljanju zadataka da bi ljudi mogli da postanu suvišni – ne zato što ih neko namerno isključuje, već zato što sistemi sami preuzimaju ključne funkcije.
„Ako mašine budu znale kako da manipulišu informacijama, finansijskim tržištima ili čak ljudskim emocijama – a to već polako pokazuju – one mogu polako da preuzimaju vlast, bez nasilja i bez otpora”.
On upozorava da ne postoji garancija da će visoko razvijeni sistemi veštačke inteligencije „voleti” ljude.