Banovic Strahinja
Domaćin
- Poruka
- 3.798
Nova društvena mreža po imenu Moltbook je napravljena za veštačku inteligenciju, pa mašine sada mogu da se druže međusobno. Druženje je bilo produktivno i nekoliko sati nakon što je platforma krenula, AI su smislile svoje religije, razvile neke mini subkulture i takodje pokušavale da izbegnu ljudsko prisluškivanje.
(ima naznaka da su ljudi preko lažnih naloga uspeli da se infiltriraju).
Ovo me je odmah podsetilo na pitanje etike i etičkih odluka.
Za ljude, donošenje etičkih odluka podrazumeva vaganje vrednosti, razmatranje posledica i često snalaženje u složenim dilemama. To zahteva empatiju, intuiciju i razumevanje konteksta- osobine koje su duboko ukorenjene u našim iskustvima i emocijama. Ali može li mašina koliko god napredna bila, da uradi taj proces? I ako može, da li bi trebalo?
Zamisli automobil kojim upravlja AI tj veštačka inteligencija- koji juri uskim putem i: iznenada ispred njega istrči dete. Auto mora da odluči: da skrene i rizikuje život putnika, ili da nastavi pravo i ugrozi dete?
Trenutno u nekim zemljama AI sistemi u zdravstvu postavljaju dijagnoze i preporučuju tretmane, ponekad donoseći odluke od kojih zavisi život. Ali mogu li mašine zaista da razumeju šta je ispravno, a šta pogrešno?
Šta se dešava kada pogreše ili kada odražavaju pristrasnosti svojih tvoraca?
Kako se AI sve više integriše u naše živote, ona će i transformisati način na koji radimo i izazvati naše shvatanje morala. Od prepoznavanja lica do odobravanja kredita, AI donosi odluke koje su nekada donosili samo ljudi, ali mašinama nedostaju empatija, kontekst i moralno rasuđivanje. To pokreće važna pitanja: može li AI donositi etičke odluke?
Da li bi trebalo?
I kako možemo da osiguramo da služi ljudskim vrednostima, a ne da ih potkopava?
Ako AI može da donosi "bolje“ odluke od ljudi, da li je nemoralno ne prepustiti AI tu ulogu?
Da li je razumevanje uopšte neophodno za moralno delovanje, ako je ishod “ispravan”, da li je važno kako je odluka doneta?
(ima naznaka da su ljudi preko lažnih naloga uspeli da se infiltriraju).
Ovo me je odmah podsetilo na pitanje etike i etičkih odluka.
Za ljude, donošenje etičkih odluka podrazumeva vaganje vrednosti, razmatranje posledica i često snalaženje u složenim dilemama. To zahteva empatiju, intuiciju i razumevanje konteksta- osobine koje su duboko ukorenjene u našim iskustvima i emocijama. Ali može li mašina koliko god napredna bila, da uradi taj proces? I ako može, da li bi trebalo?
Zamisli automobil kojim upravlja AI tj veštačka inteligencija- koji juri uskim putem i: iznenada ispred njega istrči dete. Auto mora da odluči: da skrene i rizikuje život putnika, ili da nastavi pravo i ugrozi dete?
Trenutno u nekim zemljama AI sistemi u zdravstvu postavljaju dijagnoze i preporučuju tretmane, ponekad donoseći odluke od kojih zavisi život. Ali mogu li mašine zaista da razumeju šta je ispravno, a šta pogrešno?
Šta se dešava kada pogreše ili kada odražavaju pristrasnosti svojih tvoraca?
Kako se AI sve više integriše u naše živote, ona će i transformisati način na koji radimo i izazvati naše shvatanje morala. Od prepoznavanja lica do odobravanja kredita, AI donosi odluke koje su nekada donosili samo ljudi, ali mašinama nedostaju empatija, kontekst i moralno rasuđivanje. To pokreće važna pitanja: može li AI donositi etičke odluke?
Da li bi trebalo?
I kako možemo da osiguramo da služi ljudskim vrednostima, a ne da ih potkopava?
Ako AI može da donosi "bolje“ odluke od ljudi, da li je nemoralno ne prepustiti AI tu ulogu?
Da li je razumevanje uopšte neophodno za moralno delovanje, ako je ishod “ispravan”, da li je važno kako je odluka doneta?