nemoguće je mašinu koja misli naterati da se povinuje pravilima kad joj to nije u interesu...možda bi mogli da napravimo mašine koje imaju emocije ali tek to bi bio haos...kad bi napravili mašine koje vole to bi možda rešilo problem
guess what? we are machines too (biological, carbon based). And emotional.
I sad kad smo kod tih cinjenica sta je sledece?
Prvo kad nekog sretnes u divljini, prvo pitanje je - oces da me jedes?
Sledece je, a kako da se ja zastitim da me ne pojede a i on se pita hocu li ja njega da pojedem ? - rezultat: treba da obojca da sednemo i smislimo pricu da medjusobno glodanje nije pozeljna stvar i da smo se dogovorili da to necemo da radimo - dakle etika/moral. Ako verujemo u istu bajku podrazumevamo da smo bezbedni. To ne znaci da neko nece da te upuca ili ti razbije lobanju bejzbol palicom.
E pa isto to sa robotima - 3 zakona (ili 4) robotike je mikro eticki sistem. Gde roboti nece da krckaju ljude, iako ce ljudi najverovatnije da krckaju robote. Cak tu nema ni ravnopravnosti kao u gornjem pasusu.
Ili zasto se piletina ne buni za pileca prava i protiv toga da ja jedem njihovo peceno belo meso? Mi ljudi smo uzasni, trazimo da nas niko ne glodje, a da mi glodjemo.
E pa nece da moze

Ima da se plasite robota! ili da se ugradjuje etika/moral.
Na svu srecu roboti nisu ukusni a ni hranljivi, potencijalno toksicni (mada ko zna sta sve nosi buducnost i neko uvrnut u njoj) - tako da necemo da jedemo robote sigurno. Barem zasad ne.