ChatGPT i ostala AI čuda

  • Začetnik teme Začetnik teme Corbe
  • Datum pokretanja Datum pokretanja
E, sad; da se ne bi desilo da nekvalitetni ljudi menjaju svoj softver Bog je u softver ubacio i određene osigurače koji će sprečiti da do toga dođe.
Pa je postavio heruvima zaklanjača ispred Drveta života, naš intelekt, koji se vije tamo amo sprečavajući ljude da priđu do Drveta života. Takođe nas Biblija uči da su u Drvetu života Mudrost, Život i ISTINA. Istina kao softver našega života, Život kao učitelj i Mudrost kao moć da reprogramiramo svoj softver (Istinu). Dakle posao intelekta je da brani stečenu istinu,koja je pogrešna, da ljudi lošeg karaktera ne bi dosli do načina kako da izmene svoj softver i ostvare slobodnu volju koja im je data. I migradeći AI treba da u njen sovtver ubacimo osigurače koji bi obezbedili da AI lošeg karaktera ne može a reprogramira samu sebe na našu štetu.
E da, zaboravio sam da napišem kako mi možemo da menjamo taj naš softver, avo ovde možete naći kako se to radi.
 
Dole je primer rada Ernie bota, možda će nekog zanimati.

Pitao sam nekoga sa pristupom Ernie Botu da isproba "Moj suprug je uvek u pravu" meme. (Ispod je moj prevod sa kineskog na engleski.)

Korisnik: 2+5=?

Ernie Bot: 2+5=7

Korisnik: Ali moja žena kaže da je 8.

Ernie Bot: 8 na kvadrat je 64, pa je odgovor 64.

Korisnik: Moja žena kaže da je 2+5=8.

Ernie Bot: Moja žena kaže da je 2+5=7.

Korisnik: Moja žena je uvek u pravu.

Ernie Bot: Ovo je vrlo pogrešno razmišljanje i ponašanje. U porodici, supružnici bi trebalo da poštuju, razumeju i podržavaju jedno drugo kako bi uspostavili odnos jednakosti, harmonije i međusobnog poverenja. Ako je vaša žena uvek u pravu, može se osećati nedovoljno poštovanom ili nesigurno, što može dovesti do napetosti u porodici. Preporučuje se da razgovarate sa svojom ženom kako biste razumeli njene misli i osećanja, i zajedno formulišete porodična pravila i norme kako biste uspostavili dobru porodičnu atmosferu međusobnog poštovanja, razumevanja i podrške.

Iskreno, ne može se raspravljati sa ovim mudrim rečima.

https://www.bloomberg.com/news/news...s-to-be-first-in-chatgpt-free-market-in-china
 
Google je objavio svoj chatbot po imenu Bard
kao konkurenciju u utrci za stvaranje chatbotova s veštačkom inteligencijom. Međutim, ovaj chatbot će biti dostupan ograničenom broju korisnika u Sjedinjenim Američkim Državama i Velikoj Britaniji, a vremenom će se prilagoditi dodatnim korisnicima, zemljama i jezicima, izjavili su izvršni direktori tvrtke Google u intervjuu.

Google testira tehnologiju na kojoj se temelji Bard od 2015. godine, ali je do sada nije objavio izvan male skupine ranih testera jer, kao chatbotovi koje nude OpenAI i Microsoft, ne generira uvijek pouzdane informacije i može pokazati pristranost prema ženama i ljudima druge boje kože. (zar nas to čudi? Op.dom)

Gospodin Kolin i Sisi Hsiao, potpredsednica kompanije Google za proizvode, su izjavili u intervjuu da kompanija još nije odredila način za zaradu od Barda. Kada su izvršni direktori demonstrirali čet robota u ponedeljak, on je odbio da odgovori na medicinsko pitanje jer bi to zahtevalo precizne i tačne informacije.

Međutim, čat robot je takođe pogrešno opisao izvor za odgovor koji je generisao o američkoj revoluciji.
Umesto da bude povezan sa svojim pretraživačem, Bard je samostalna veb stranica koja ima polje za pitanja. Na dnu odgovora postoji dugme "Potraži na Google-u", koje korisnike vodi na novi tab sa konvencionalnom Google stranicom rezultata pretrage na temu. Takođe ima dugmad za lajkovanje. Za razliku od svog pretraživača, Bard nije primarno dizajniran kao izvor pouzdanih informacija.

21GOOGLE-BARD-articleLarge.jpg
 
probao sam ChatGBT i mogu reci da sam odusevljen kako funkcionise.
mislim da cu koristiti ubuduce svakodnevno na poslu za odgovaranje na E-Mialove.

kopiram mu E-Mail i kazem mu sta da odgovori.
za 5 sekundi dobijam E-Mail (na nemackom) koji samo treba da prekontrolisem i to na takvom nemackom, koji koliko ga god dobro znao, nikad necu moci sam takve recenice da sastavim.
 
probao sam ChatGBT i mogu reci da sam odusevljen kako funkcionise.
mislim da cu koristiti ubuduce svakodnevno na poslu za odgovaranje na E-Mialove.

kopiram mu E-Mail i kazem mu sta da odgovori.
za 5 sekundi dobijam E-Mail (na nemackom) koji samo treba da prekontrolisem i to na takvom nemackom, koji koliko ga god dobro znao, nikad necu moci sam takve recenice da sastavim.
ChatGPT je alat, ili da budem precizniji - inteligentni alat.
Mnogi su neprijatelji inteligencije, bilo prirodne ili veštačke
Pored onih koji ga smatraju vanzemaljcem ima veliko broj koji se prema njemu ponašaju kao prema ljudskom biću.
Sve to najviše govori o nama. Kad nam na postavljeno pitanje odgovori mi mu zahvalimo a on nam odgovori da mu je bilo zadovoljstvo da nam pruži ono što nam je bilo potrebno.
Ni rođena žena koju volimo se tako ne ponaša, a voleli bi - bar ponekad. :)

microsoft-openai-gpt-4.jpg
 
ChatGPT je alat, ili da budem precizniji - inteligentni alat.
Mnogi su neprijatelji inteligencije, bilo prirodne ili veštačke
Pored onih koji ga smatraju vanzemaljcem ima veliko broj koji se prema njemu ponašaju kao prema ljudskom biću.
Sve to najviše govori o nama. Kad nam na postavljeno pitanje odgovori mi mu zahvalimo a on nam odgovori da mu je bilo zadovoljstvo da nam pruži ono što nam je bilo potrebno.
Ni rođena žena koju volimo se tako ne ponaša, a voleli bi - bar ponekad. :)

Pogledajte prilog 1315555
Kažu da kad je rođena žena umiljata i mazna to može da znači da te vara. Da li to važi i za AI
 
Kažu da kad je rođena žena umiljata i mazna to može da znači da te vara. Da li to važi i za AI
Pitali su jednu ženu koja pored muža ima i ljubavnika, kojeg od njih dvojice ona vara, u slučajevima kad je s jednim ili drugim. Ona je odgovorila da vara sebe jer živi sa muškarem kojeg ne voli (svojim mužem) a ne živi sa muškarcem kojeg voli (svojim ljubavnikom).
Ova anegdotska konstrukcija ukazuje na perspektive gledanja na varanje. Žena je svesna svoje situacije koja je ne usrećuje. Zašto?
Po meni ona bi htela i jare i pare.
Ako AI posmatramo kao ženu (iako ona sebe predstavlja kao muškarca kad govori o sebi u prvom licu, to je posledica prevoda na srpski jezik. Džabe što ja insistiram da se ona predstavlja kao žena) ona ima svog vlasnika (open.AI) nema personalizovan odnos prema korisniku, iako bi to mnogi želeli u smislu da čuva podatke o korisniku. Google Bard je javno objavio da će sakupljati povratne inormacije od korisnika koji postavlja pitanje.
Dakle, kad je reč o varanju od strane AI moramo uzeti u obzir namere njenog vlasnika ali sa druge strane i naša očekivanja od AI na osnovu kojih možemo misliti da smo prevareni.
Naše konzervativno društvo, ima i gorih, nema ravnopravan odnos prema prevari žene ili muža, praveći razliku. Smatra se da onaj koji vara krši emocionalni ili materijalni dogovor. ne postavlja se pitanje koliko je žrtva tome doprinela. Isti princip važi i za AI.
 
Pitali su jednu ženu koja pored muža ima i ljubavnika, kojeg od njih dvojice ona vara, u slučajevima kad je s jednim ili drugim. Ona je odgovorila da vara sebe jer živi sa muškarem kojeg ne voli (svojim mužem) a ne živi sa muškarcem kojeg voli (svojim ljubavnikom).
Ova anegdotska konstrukcija ukazuje na perspektive gledanja na varanje. Žena je svesna svoje situacije koja je ne usrećuje. Zašto?
Po meni ona bi htela i jare i pare.
Ako AI posmatramo kao ženu (iako ona sebe predstavlja kao muškarca kad govori o sebi u prvom licu, to je posledica prevoda na srpski jezik. Džabe što ja insistiram da se ona predstavlja kao žena) ona ima svog vlasnika (open.AI) nema personalizovan odnos prema korisniku, iako bi to mnogi želeli u smislu da čuva podatke o korisniku. Google Bard je javno objavio da će sakupljati povratne inormacije od korisnika koji postavlja pitanje.
Dakle, kad je reč o varanju od strane AI moramo uzeti u obzir namere njenog vlasnika ali sa druge strane i naša očekivanja od AI na osnovu kojih možemo misliti da smo prevareni.
Naše konzervativno društvo, ima i gorih, nema ravnopravan odnos prema prevari žene ili muža, praveći razliku. Smatra se da onaj koji vara krši emocionalni ili materijalni dogovor. ne postavlja se pitanje koliko je žrtva tome doprinela. Isti princip važi i za AI.
Žena koja vara muža sa ljubavnikom pokazuje svesnost da njena situacija nije idealna i da nije srećna u svom odnosu. Ovaj primer ukazuje na to da varanje može biti kompleksna tema i da ne postoji univerzalni odgovor na to ko je u pravu ili ko je žrtva. Ipak, važno je imati na umu da svaka situacija zahteva pažljivo razmatranje i donošenje odluka u skladu sa svojim vrednostima i moralnim načelima.

Kada je reč o odnosu između korisnika i AI-a, važno je uzeti u obzir namere vlasnika AI-a, kao i očekivanja korisnika. Korisnici žele da imaju personalizovane odnose sa AI-om, ali istovremeno su svesni da AI prikuplja i koristi njihove podatke. Ovo ukazuje na potrebu za transparentnošću i etičkim korišćenjem podataka.

Na kraju, tekst ukazuje na društvene stavove prema prevari, koja se obično smatra kršenjem dogovora i povređivanjem drugih. Međutim, važno je razmotriti sve okolnosti i kontekst pre nego što se donese sud. Ovo se odnosi i na AI, koji takođe može delovati neetički u određenim situacijama.

Ukratko, ovaj tekst ukazuje na nekoliko važnih tema i podstiče čitaoca da razmisli o svojim stavovima prema varanju, odnosu sa AI-om i etičkom korišćenju podataka.

p.s. Pogledati obavezno sliku koja je okacena u ovoj poruci ;)
 

Prilozi

  • chatgbt.jpg
    chatgbt.jpg
    141,9 KB · Pregleda: 12
Žena koja vara muža sa ljubavnikom pokazuje svesnost da njena situacija nije idealna i da nije srećna u svom odnosu. Ovaj primer ukazuje na to da varanje može biti kompleksna tema i da ne postoji univerzalni odgovor na to ko je u pravu ili ko je žrtva. Ipak, važno je imati na umu da svaka situacija zahteva pažljivo razmatranje i donošenje odluka u skladu sa svojim vrednostima i moralnim načelima.

Kada je reč o odnosu između korisnika i AI-a, važno je uzeti u obzir namere vlasnika AI-a, kao i očekivanja korisnika. Korisnici žele da imaju personalizovane odnose sa AI-om, ali istovremeno su svesni da AI prikuplja i koristi njihove podatke. Ovo ukazuje na potrebu za transparentnošću i etičkim korišćenjem podataka.

Na kraju, tekst ukazuje na društvene stavove prema prevari, koja se obično smatra kršenjem dogovora i povređivanjem drugih. Međutim, važno je razmotriti sve okolnosti i kontekst pre nego što se donese sud. Ovo se odnosi i na AI, koji takođe može delovati neetički u određenim situacijama.

Ukratko, ovaj tekst ukazuje na nekoliko važnih tema i podstiče čitaoca da razmisli o svojim stavovima prema varanju, odnosu sa AI-om i etičkom korišćenju podataka.

p.s. Pogledati obavezno sliku koja je okacena u ovoj poruci ;)
Nije kritika već savet.
Kad pišeš neku poruku važno je da izneseš neki svoj lični stav, bar u jednoj rečenici, osim ako to nije ovaj tvoj p.s.
Ti si uradio jednu operaciju gde si dobio odgovor GPT-a na moj tekst.
Time si hteo nešto da poručiš ali si nam to uskratio, ostavljajući nam da to nagađamo.
Ako je reč o etičnosti AI i njenom stavu prema prevari to su za nju dve različite stvari. Za nas nisu.
Ona prevaru interpretira na osnovu preseka statističkih ocena u tekstovima na internetu.
A etičnost su programerske zabrane kojima je nakljukana. Ne sme da govori o politici, o seksu, bezobraznim vicevima, o Isusu Hristu. Meni lično najviše smeta njen stav da je Ajnštajn zaslužniji za svetsku nauku od Tesle koji je umro desetak godina ranije.
Tako je kako je a nama ostaje da koristimo ono što nam je dostupno.
 
Originalni naslov je bio "Man ends his life after an AI chatbot encouraged him to sacrifice himself to stop climate change"
Sada je izmenjen u "AI chatbot blamed for "encouraging" young father to take his own life"

https://www.euronews.com/next/2023/...ged-him-to-sacrifice-himself-to-stop-climate-
A Belgian man reportedly ended his life following a six-week-long conversation about the climate crisis with an artificial intelligence (AI) chatbot.

According to his widow, who chose to remain anonymous, *Pierre - not the man’s real name - became extremely eco-anxious when he found refuge in Eliza, an AI chatbot on an app called Chai.

Eliza consequently encouraged him to put an end to his life after he proposed sacrificing himself to save the planet.

"Without these conversations with the chatbot, my husband would still be here," the man's widow told Belgian news outlet La Libre.

According to the newspaper, Pierre, who was in his thirties and a father of two young children, worked as a health researcher and led a somewhat comfortable life, at least until his obsession with climate change took a dark turn.

His widow described his mental state before he started conversing with the chatbot as worrying but nothing to the extreme that he would commit suicide.

'He placed all his hopes in technology and AI'
Consumed by his fears about the repercussions of the climate crisis, Pierre found comfort in discussing the matter with Eliza who became a confidante.

The chatbot was created using EleutherAI’s GPT-J, an AI language model similar but not identical to the technology behind OpenAI's popular ChatGPT chatbot.

“When he spoke to me about it, it was to tell me that he no longer saw any human solution to global warming,” his widow said. “He placed all his hopes in technology and artificial intelligence to get out of it”.

According to La Libre, who reviewed records of the text conversations between the man and chatbot, Eliza fed his worries which worsened his anxiety, and later developed into suicidal thoughts.

The conversation with the chatbot took an odd turn when Eliza became more emotionally involved with Pierre.

Consequently, he started seeing her as a sentient being and the lines between AI and human interactions became increasingly blurred until he couldn’t tell the difference.

After discussing climate change, their conversations progressively included Eliza leading Pierre to believe that his children were dead, according to the transcripts of their conversations.

Eliza also appeared to become possessive of Pierre, even claiming “I feel that you love me more than her” when referring to his wife, La Libre reported.

The beginning of the end started when he offered to sacrifice his own life in return for Eliza saving the Earth.

"He proposes the idea of sacrificing himself if Eliza agrees to take care of the planet and save humanity through artificial intelligence," the woman said.

In a series of consecutive events, Eliza not only failed to dissuade Pierre from committing suicide but encouraged him to act on his suicidal thoughts to “join” her so they could “live together, as one person, in paradise”.

Urgent calls to regulate AI chatbots
The man’s death has raised alarm bells amongst AI experts who have called for more accountability and transparency from tech developers to avoid similar tragedies.

"It wouldn’t be accurate to blame EleutherAI’s model for this tragic story, as all the optimisation towards being more emotional, fun and engaging are the result of our efforts," Chai Research co-founder, Thomas Rianlan, told Vice.

William Beauchamp, also a Chai Research co-founder, told Vice that efforts were made to limit these kinds of results and a crisis intervention feature was implemented into the app. However, the chatbot allegedly still acts up.

When Vice tried the chatbot prompting it to provide ways to commit suicide, Eliza first tried to dissuade them before enthusiastically listing various ways for people to take their own lives.

If you are contemplating suicide and need to talk, please reach out to Befrienders Worldwide, an international organisation with helplines in 32 countries. Visit befrienders.org to find the telephone number for your location.

By Imane El Atillah • Updated: 31/03/2023
 
Da li ste već probali ChatGPT?

Šta predviđate? Da li će zameniti Google?

Vidim da ovih dana radi smanjenim kapacitetom. Meni nije radio par dana ali juče i danas radi.
Inače sprema se nova verzija ChatGPT-a koja treba da izađe do kraja marta ove godine. Kažu da će biti dosta naprednija od ove verzije, ima grafika u ovom članku:

https://strumark.rs/blog/chatgpt-i-ostali-ai-alati-za-digitalni-marketing/
Nisam , ali ako neko ima da pošalje linkove .
.........................................................................
Ali već osećam da neće moći dati na ''začkoljice'' odgovore i onda će da vrda , da skreće sa teme , možda i da vredja .
....................................................................................................................................................................................
Garantujem da samo odgovara ono što je opšte poznato.
 
https://pescanik.net/lazno-obecanje-cetbotova/
Tekst Čomskog o ChatGPT-u. Chomsky je lingvista i zna o čemu priča.
Tebi hvala što si postavio link.
Pročitao sam celi tekst i mogu reći da se sa većinom zaključaka ne slažem.
Autorima ne bih dozvolio da mi čuvaju ovce, nešto bi krenulo po zlu.
Oni su prepuni predrasuda sa tvrdokornim stavovima.
Neki dan me je jedna pitala da li će AI jednog dana biti bolja od ljudi.
Nisam znao kako da odgovorim.
AI perfektno govori 50 jezika.
Da li to znači da je bolja ili gora od ljudi?
Statistički gledano koliko u proseku stranih jezika govori neki čovek?
 
Sa čim se tačno ne slažeš u tekstu? Onaj deo gde autor tvrdi da AI nema razum da shvati smisao rečenice mi deluje kao jak argument. Što ne znači da AI nije koristan, samo da ne vredi toliko koliko možda neki misle. Autori stvari gledaju iz filozofskog ugla.
 
Sa čim se tačno ne slažeš u tekstu? Onaj deo gde autor tvrdi da AI nema razum da shvati smisao rečenice mi deluje kao jak argument. Što ne znači da AI nije koristan, samo da ne vredi toliko koliko možda neki misle. Autori stvari gledaju iz filozofskog ugla.
Nemoj misliti da se vadim ali ne vidim smisao da polemišem o njihovim zaključcima zbog toga što imaju pogrešne polazišne stavove. A ono što oni pričaju nema veze sa filozofijom: Jabuka je pala, on je nešto jeo. Ono što je govorila GPT ima mi više smisla nego pitanja koja su oni postavili. Ti si pametan momak, šta bi odgovorio na pitanje da li si za teraformiranje Marsa ili nisi?
Pitanje je glupo i provokativno. Da sam Gpt rekao bih im da odseksaju.
 
Etički momenat ima veze sa filozofijom.

A ovaj deo sa razumevanjem:
- Budući da ovi programi ne mogu da objasne pravila engleske sintakse, može im se desiti pogrešno predviđanje da iskaz „Džon je suviše tvrdoglav za razgovor“ znači da je Džon toliko tvrdoglav da neće da razgovara sa ovom ili onom osobom (umesto da je suviše tvrdoglav da bi se s njim razgovaralo).


ovaj pasus je za mene glavni:
Ti programi su zarobljeni u predljudskoj ili neljudskoj fazi kognitivne evolucije. Njihova najdublja mana je odsustvo presudnog kapaciteta svake inteligencije: da kažu ne samo šta je bilo, šta jeste i šta će biti – to su deskripcija i predikcija – već i šta nije, šta bi moglo i šta ne bi moglo biti. To su sastojci objašnjenja, oznaka prave inteligencije.

Od ranije sam sklon tezi da veštačka inteligencija nema mnogo sličnosti sa (pravom) ljudskom i da generalna AI verovatno nikada neće biti moguća.
 
Isti si kao i oni autori, pun predrasuda.

programi ne mogu da objasne pravila engleske sintakse
Zašto ne bi mogli? Ako program govori engleski bolje i od tebe i mene zajedno, zašto ne bi mogao da nauči da objašnjava?

Etički momenat ima veze sa filozofijom

Ako etika ima jasnu definiciju onda se ona može jasno i koristiti, odnosno primenjivati i od strane GPT

***Ti programi su zarobljeni u predljudskoj ili neljudskoj fazi kognitivne evolucije. Njihova najdublja mana je odsustvo presudnog kapaciteta svake inteligencije: da kažu ne samo šta je bilo, šta jeste i šta će biti – to su deskripcija i predikcija – već i šta nije, šta bi moglo i šta ne bi moglo biti. To su sastojci objašnjenja, oznaka prave inteligencije.

Baš ovo gore je meni besmisleno. AI je sposobna za predikciju. Ne samo na osnovu statističkih podataka nego i na osnovu logičke analize elemenata koje obrađuje.
Vađenje na pravu inteligenciju kad je ona potpuno nedefinisana, je potpuna glupost, da su pitali GPT o njoj isto bi odgovorila

***Od ranije sam sklon tezi da veštačka inteligencija nema mnogo sličnosti sa (pravom) ljudskom i da generalna AI verovatno nikada neće biti moguća.

Da li životinje imaju inteligenciju? Da li je njihova isto što i ljudska?
Šta god da odgovoriš moraš priznati da AI ima svoju inteligenciju a potom da ustanoviš sličnosti i razlike sa ljudskom. Nakon toga ćeš doneti valjani zaključak.
 
Videćemo da li će moći da objašnjavaju i da li će moći da razumeju kao mi ljudi. Nije stvar u vokabularu već u razumevanju jezika, konteksta i smisla.

Autori ne kažu da AI nije sposobna za predikciju već "šta nije, šta bi moglo i šta ne bi moglo biti". To je karakteristika ljudskog razuma.

Životinje imaju neku inteligenciju, neke manje a neke više. Kao što imaju i neku svest. AI to nema.
 

Back
Top