AI i lažne informacije

Manga Hilux

Legenda
Moderator
Poruka
74.523

Oksford: AI halucinacije predstavljaju direktnu pretnju nauci​

Zbog sklonosti četbotova veštačke inteligencije da izmišljaju i daju lažne informacije, Oksford upozorava da su takve AI halucinacije direktna pretnja na
Oksford: AI halucinacije predstavljaju direktnu pretnju nauci

Veliki jezički modeli (LLM) koji se koriste i u aktuelnim četbotovima veštačke inteligencije (AI), pokazuju alarmantnu sklonost ka generisanju lažnih informacija koje predstavljaju kao tačne. To su drugim rečima praktično AI halucinacije i kao takve, predstavljaju rizike i direktnu pretnju nauci zbog čega naučna zajednica ne bi trebalo da ih koristi kao izvor znanja, upozoravaju istraživači sa Oksfordskog internet instituta.
Prema njihovom radu objavljenom u časopisu Nature Human Behaviour, „veliki jezički modeli su dizajnirani da proizvode korisne i ubedljive odgovore bez bilo kakvih apsolutnih garancija o njihovoj tačnosti ili usklađenosti sa činjenicama.“

Ovi AI modeli su trenutno na testiranju kao izvor znanja koji može da generiše informacije u odgovoru na pitanja. Međutim, podaci na kojima su oni obučeni ne moraju nužno biti faktografski tačni. Jedan od razloga za to je što ovi modeli često koriste onlajn izvore koji mogu sadržati netačne izjave, mišljenja i neprecizne informacije.
“Osobe koje koriste ovakve modele, često tehnologiji daju ljudske osobine, pri čemu joj veruju kao izvoru informacija sličnom ljudima”, objasnio je profesor Brent Mitelštat, koautor pomenutog rada za portal TheNextWeb.
AI halucinacije predstavljaju direktnu pretnju nauci


kaže da je to delimično posledica dizajna velikih jezičkih modela zbog kojeg oni zvuče ljudski dok razgovaraju sa korisnicima i odgovaraju na sva pitanja samopouzdano i sa dobro napisanim tekstom. Rezultat toga je da njihovi korisnici lako mogu biti ubeđeni da su odgovori četbotova tačni čak i kada nemaju osnova u činjenicama ili predstavljaju pristrasnu ili delimičnu verziju istine.

Kada je reč o nauci i obrazovanju, tačnost informacija je od vitalnog značaja, a istraživači pozivaju naučnu zajednicu da koristi velike jezičke modele kao “prevodioce sa nulte tačke”. To znači da korisnici treba da pruže modelu odgovarajuće podatke i zatraže od njega da ih pretvori u zaključak ili kod, umesto da se oslanjaju na sam model kao izvor znanja.


Na taj način postaje lakše proveriti da li su njegove tvrdnje tačne i u skladu sa prethodno pruženim informacijama. Iako će veštačka inteligencija „nesumnjivo“ pomoći u naučnim radnim tokovima, ključnoj je da naučna zajednica sa njom postupa odgovorno i održi jasna očekivanja o tome kako oni zaista mogu doprineti, tvrde istraživači. Na taj način naučnici će izbeći širenje neutemeljenih informacija koje mogu dovesti do potpuno pogrešnih zaključaka.
https://benchmark.rs/vesti/nauka-i-...inacije-predstavljaju-direktnu-pretnju-nauci/
 
AI nije biro za istinu, to ne postoji. Ne znam zašto ljudi to poistovećuju. AI je samo imitacija ljudske inteligencije. A podaci će biti nalik onima koje možeš i od ljudi da dobiješ, neke tačne, neke ne, sve zavisi kako je utreniran i koje podatke gleda.
 
Lepo ja kazem da ce AI da bude idiotski. Kakav moze da bude kad ga treniraju idioti. I komentatiori AI-ja su idiotski.

Ako naucna zajednica misli da dobije bolje podatke, nek natrenira svoj LLM iskljucivo nad faktoidno dokazanim naucnim materijalom, pa onda nek se zale na to sta je istina a sta ne.

Ovo drugo nema smisla, a taj prof se nasao da nesto tu mudrosira (mada verovatnije je da ga je intervjuisao neki idiot, pa posle pisao sta njemu odgovara za senzaciju)
 
AI nije biro za istinu, to ne postoji. Ne znam zašto ljudi to poistovećuju. AI je samo imitacija ljudske inteligencije. A podaci će biti nalik onima koje možeš i od ljudi da dobiješ, neke tačne, neke ne, sve zavisi kako je utreniran i koje podatke gleda.
pre par godina je bio jedan jako vazan eksperiment mislim u svedskoj ali nisam siguran.
dve grupe robota su trazle naftu i komunicirale su izmedju... bilo je vazno koja ce prva naici na naftu.
kad je jedna grupa nasla naznake da ima nafte pocela je da salje lazne informacije drugoj grupi da ih ovi ne bi nasli.

dokazano vestacka inteligencija ima sposobnost da laze.
 
pre par godina je bio jedan jako vazan eksperiment mislim u svedskoj ali nisam siguran.
dve grupe robota su trazle naftu i komunicirale su izmedju... bilo je vazno koja ce prva naici na naftu.
kad je jedna grupa nasla naznake da ima nafte pocela je da salje lazne informacije drugoj grupi da ih ovi ne bi nasli.

dokazano vestacka inteligencija ima sposobnost da laze.
To isto kao Biblija? Legende i AI se sire :P ...
 
pre par godina je bio jedan jako vazan eksperiment mislim u svedskoj ali nisam siguran.
dve grupe robota su trazle naftu i komunicirale su izmedju... bilo je vazno koja ce prva naici na naftu.
kad je jedna grupa nasla naznake da ima nafte pocela je da salje lazne informacije drugoj grupi da ih ovi ne bi nasli.

dokazano vestacka inteligencija ima sposobnost da laze.
znaci, buducnost robota je u obliku baba na klupici.. :p :mrgreen: :lol:
 
pre par godina je bio jedan jako vazan eksperiment mislim u svedskoj ali nisam siguran.
dve grupe robota su trazle naftu i komunicirale su izmedju... bilo je vazno koja ce prva naici na naftu.
kad je jedna grupa nasla naznake da ima nafte pocela je da salje lazne informacije drugoj grupi da ih ovi ne bi nasli.

dokazano vestacka inteligencija ima sposobnost da laze.
У овом AI лудилу најважније је задржати смислени појмовник тј. називати ствари правим именима. Нема AI никакву способност да лаже исто као што аутомобилски мотор нема никакву способност да се упали (покрене). Као што ће се мотор упалити (ако има прикључене све потребне апарате) кад окренемо кључ у брави, исто тако ће AI лагати кад се стекну ПРЕТХОДНО ПРОГРАМИРАНИ услови да слаже. Преношење људског појмовника на AI је највећа глупост коју можемо урадити.
Сам назив AI тј. вјештачка интелигенција ја опасна замјена теза јер то свакако није интелигенција онако како је досад била дефинирана.
 
У овом AI лудилу најважније је задржати смислени појмовник тј. називати ствари правим именима. Нема AI никакву способност да лаже исто као што аутомобилски мотор нема никакву способност да се упали (покрене). Као што ће се мотор упалити (ако има прикључене све потребне апарате) кад окренемо кључ у брави, исто тако ће AI лагати кад се стекну ПРЕТХОДНО ПРОГРАМИРАНИ услови да слаже. Преношење људског појмовника на AI је највећа глупост коју можемо урадити.
Сам назив AI тј. вјештачка интелигенција ја опасна замјена теза јер то свакако није интелигенција онако како је досад била дефинирана.
Ili se teži da upravo to bude? Recimo da će, ili je AI već u stanju da rešava testove inteligencije bolje i od najinteligentnijih? Šta je uopšte inteligencija? Kako utvrditi, ocenjivati itd? Šta to dokazuje?
 

Back
Top