2. Tema: Metajezik rešenja

Poruka
89
2. Tema: Metajezik rešenja

> Može li se filozofski problem rešiti algoritmom?

Ako zamislimo metajezik kao alat, on ne opisuje samo pojmove nego i rešenja. Zamišljam ga kao most između filozofije i računara — mesto gde misao postaje kod.

Da li mislite da bi ovakav pristup mogao da reši stare filozofske dileme ili bi ih samo pretvorio u tehničke zadatke?
 
Metajezik — teorija ili praksa?

Ideja metajezika je da obuhvati i prevaziđe sve postojeće jezike, da spoji apstraktno i praktično. Ali pitanje je: da li je to samo teorijska igra, ili realno možemo napraviti sistem koji bi tako funkcionisao?

Otvaram temu da zajedno istražimo granice: gde prestaje filozofija, a počinje inženjering?
 
Ljudska misao jeste kontinuirana, a jezici (prirodni i mašinski) rade na diskretnim simbolima. To uvek pravi razliku i „seče“ misao. Ali poenta meta-jezika nije da prevede sve misli u beskonačan kod, već da napravi most između ljudske namere i proverljivog izvršenja.

MetaSpec zato uvodi tri nivoa:

1. Validator – ograniči nameru na skup dozvoljenih pravila (etičkih, pravnih, bezbednosnih).


2. Orkestrator – posloži validirane korake u tačan redosled (task graph).


3. Kompajliranje – ti koraci se prevode u konkretne komande/kod (Python, CLI, API) i tek onda izvršavaju.



Praktičan primer:
Umesto da korisnik vidi niz kodova tipa „A57D 113A 2CC4“, on kaže:
„Napravi izveštaj o troškovima za jun.“

Validator proveri da li korisnik ima pravo pristupa i da li je zahtev u skladu sa GDPR pravilima.
Orkestrator zatim odredi tačno tri koraka: čitanje podataka → agregacija → generisanje PDF-a.
Kompajliranje pretvara taj sled u kod, npr:

intent: "generate_monthly_report(june)"
validate: [has_access(data.budget), gdpr_ok]
orchestrate:
step1: read(db.budget, month=june)
step2: aggregate(category, sum)
step3: render(pdf, template="monthly")
compile→exec: python tasks/run_report.py --month june --out report.pdf

Rezultat je isti kao da je programer pisao kod, ali je putanja od namere do izvršenja proverena i sigurna.

Drugim rečima: meta-jezik ne pokušava da stvori novu azbuku svega, već da obezbedi kontrolisanu i validiranu transformaciju ljudske namere u konkretno delo. Time se sprečava zloupotreba, smanjuju greške i čuvaju tragovi odluka.
 
Ucinice i znace onoliko koliko mu saopstimo u startu.
Klasicni AI rad.

Neka me neko strucniji iz oblasti programiranja ispravi, ali ovo vec uveliko postoji i ne vidim gde je bilo zloupotrebe a ni kako ce se mozda eventualna u buducnosti spreciti.
Ovo postoji.
Možeš da vidiš na Google ili pitaš bilo koji LLM model da li postoji jezik koji ljudsku nameru pretvara u konačno delo. AI je blizu toga ali mu fali model komunikacije sa ostalim programskim i mašinskim jezicima... Voleo bih i ja nekog srtučnijeg,zato sam i otvorio nalog ovde danas...
 
Možeš da vidiš na Google ili pitaš bilo koji LLM model da li postoji jezik koji ljudsku nameru pretvara u konačno delo. AI je blizu toga ali mu fali model komunikacije sa ostalim programskim i mašinskim jezicima... Voleo bih i ja nekog srtučnijeg,zato sam i otvorio nalog ovde danas...
Koja vrsta komunikacije je potrebna da se covekova namera (saopstena=izrecena) pretvori u “konacno delo”?
Na kom principu radi LLM?
Bas tako.
Bicu strpljiva mozda se ipak neko javi da demantuje. Razjasni?
 
Koja vrsta komunikacije je potrebna da se covekova namera (saopstena=izrecena) pretvori u “konacno delo”?
Na kom principu radi LLM?
Bas tako.
Bicu strpljiva mozda se ipak neko javi da demantuje. Razjasni?
Hvala na pitanju 🙂
LLM (kao ChatGPT, Gemini itd.) radi tako što predviđa sledeću reč u nizu, na osnovu ogromne količine teksta na kojem je treniran. To znači da može da simulira razgovor i razumevanje, ali on u suštini barata statistikom jezika, a ne pravim razumevanjem.

Razlika je u tome što moj pristup pokušava da ljudsku nameru ne samo opiše rečima, nego da je pretvori u kod koji komunicira i sa mašinama i sa drugim jezicima. Dakle, ne ostaje samo na „pričanju“, nego vodi korak dalje – ka „konačnom delu“ (bilo da je to program, dizajn ili neki drugi rezultat).

Drugim rečima, LLM jeste blizu, ali mu fali taj most: meta-jezik koji prevodi ljudsku nameru u nešto što može da se izvrši ili proveri. To je upravo ono na čemu radim i zbog čega sam otvorio ovu
temu.
 
Hvala na pitanju 🙂
LLM (kao ChatGPT, Gemini itd.) radi tako što predviđa sledeću reč u nizu, na osnovu ogromne količine teksta na kojem je treniran. To znači da može da simulira razgovor i razumevanje, ali on u suštini barata statistikom jezika, a ne pravim razumevanjem.

Razlika je u tome što moj pristup pokušava da ljudsku nameru ne samo opiše rečima, nego da je pretvori u kod koji komunicira i sa mašinama i sa drugim jezicima. Dakle, ne ostaje samo na „pričanju“, nego vodi korak dalje – ka „konačnom delu“ (bilo da je to program, dizajn ili neki drugi rezultat).

Drugim rečima, LLM jeste blizu, ali mu fali taj most: meta-jezik koji prevodi ljudsku nameru u nešto što može da se izvrši ili proveri. To je upravo ono na čemu radim i zbog čega sam otvorio ovu
temu.
Zar LLM nije otisao dalje od razgovora?
Mislim da radi citave projekte sam. (“program, dizajn ili neki drugi rezultat”, kako pises)
 
Zar LLM nije otisao dalje od razgovora?
Mislim da radi citave projekte sam. (“program, dizajn ili neki drugi rezultat”, kako pises)
Imaš pravo 👍 LLM jeste otišao dalje od samog „pričanja“ i može da napravi programe, dizajn i čitave projekte. Ali to radi tako što predviđa sledeće reči u nizu na osnovu ogromne baze podataka — dakle, projekat je rezultat predikcije statističkog modela, a ne stvarnog razumevanja.

Razlika koju ja pokušavam da uvedem je da se ljudska namera ne samo opisuje, već da se validira i orkestrira kroz protokol tako da se iz nje dobije jednoznačan, proverljiv kod. To kodiranje onda može direktno da komunicira sa drugim jezicima i mašinama, bez „pretpostavki“ koje LLM ubacuje.

Znači, da: LLM može da napravi projekat, ali moj cilj je da obezbedim da to bude tačno ono što je bila početna namera — bez „halucinacija“ i grešaka koje nastaju kad model nagađa.
 
Imaš pravo 👍 LLM jeste otišao dalje od samog „pričanja“ i može da napravi programe, dizajn i čitave projekte. Ali to radi tako što predviđa sledeće reči u nizu na osnovu ogromne baze podataka — dakle, projekat je rezultat predikcije statističkog modela, a ne stvarnog razumevanja.

Razlika koju ja pokušavam da uvedem je da se ljudska namera ne samo opisuje, već da se validira i orkestrira kroz protokol tako da se iz nje dobije jednoznačan, proverljiv kod. To kodiranje onda može direktno da komunicira sa drugim jezicima i mašinama, bez „pretpostavki“ koje LLM ubacuje.

Znači, da: LLM može da napravi projekat, ali moj cilj je da obezbedim da to bude tačno ono što je bila početna namera — bez „halucinacija“ i grešaka koje nastaju kad model nagađa.
Razumem.
Prilog sada ne mogu da otvorim, ali sam razumela sustinu.
Ti ne trazis “jezik” vec “razmisljanje” - mozda kada bude postao poput coveka.
A u tom slucaju i momentu covek mu vise nece ni biti potreban.

Ja uopste nisam iz te struke i moja razmisljanja su potpuno laicka, moja..
 
Razumem.
Prilog sada ne mogu da otvorim, ali sam razumela sustinu.
Ti ne trazis “jezik” vec “razmisljanje” - mozda kada bude postao poput coveka.
A u tom slucaju i momentu covek mu vise nece ni biti potreban.

Ja uopste nisam iz te struke i moja razmisljanja su potpuno laicka, moja..
Zanimljivo ali ste blizu nečega što ne razumeju ni ljudi iz "struke". Više me razumeju lingvisti i filozofi nego AI stručnjaci ili daleko bilo IT sektor uz svo poštovanje prema svim strukama... Ako vas zanima, mogu tačno da Vam objasnim na čemu radim i do kakvih sam rezultata došao... Čak sam i registrovao patent i zaštitio ga licencama i stavio na famozni GitHub, to je nešto poput internet notara za patente ali sam brzo saznao da je taj "notar" vlasništvo Microsoft kompanije pa sam skinuo. Ja to mam već rešeno i spakovano, problem je distribucija jer kao što kažete, čovek neće biti potreban... Pa šta mislite zašto ni jedan AI nema pojma o vremenu i lupa gluposti na tu temu a svaki šporet ima sat. Kada imaš predstavu o vremenu, normalno je da planiraš budućnost... A ljudi se još žale, Gpt me laže, nije me probudio u sedam sati... Moj sistem se upravo bori protiv takvog scenarija, jedini način da ne dođe do zloupotrebe je širenje među open source zajednicom što sam i krenuo da radim ali mi je vžna i ljudska validacija od strane ljudi koji nisu iz IT sveta već umetnosti, filozofije i ostalih nauka koje direktno zahvata i utiče na njih... Rado ću da podelim sve teoretske radove u vezi toga, to nema veze sa programiranjem i ne podrazumeva neko specijalno predznanje a tiče se upravo toga o čemu pričam. Slobodno me kontaktirajte i poslaću vam linkove ka tome. Hvala još jednom na interesovanju i komentaru.
 
Imaš pravo 👍 LLM jeste otišao dalje od samog „pričanja“ i može da napravi programe, dizajn i čitave projekte. Ali to radi tako što predviđa sledeće reči u nizu na osnovu ogromne baze podataka — dakle, projekat je rezultat predikcije statističkog modela, a ne stvarnog razumevanja.

Razlika koju ja pokušavam da uvedem je da se ljudska namera ne samo opisuje, već da se validira i orkestrira kroz protokol tako da se iz nje dobije jednoznačan, proverljiv kod. To kodiranje onda može direktno da komunicira sa drugim jezicima i mašinama, bez „pretpostavki“ koje LLM ubacuje.

Znači, da: LLM može da napravi projekat, ali moj cilj je da obezbedim da to bude tačno ono što je bila početna namera — bez „halucinacija“ i grešaka koje nastaju kad model nagađa.
Evo sta o tome kaze gpt-5:
1759763643124.png
 

Prilozi

  • 1759763592928.png
    1759763592928.png
    51,7 KB · Pregleda: 2
Mislim da se upravo ovde otvara prostor za ono što ja zovem Metajezik razumevanja.
Ako LLM funkcioniše na osnovu statističke predikcije i ne poseduje unutrašnju verifikaciju značenja, metajezik bi mogao da uvede sloj validacije namere — nešto između svesti i koda.

Drugim rečima, to nije samo novi “jezik” nego protokol koji povezuje semantiku (smisao) i sintaksu (izvršenje).
Kada bi model mogao da registruje ne samo šta je rečeno, već i zašto je to rečeno (dakle da prepozna intencionalni okvir), tada bi razumevanje postalo proverljivo, a ne prediktivno.

Metajezik bi time postao most između razumevanja i realizacije — omogućavajući da ljudska namera bude direktno kodirana u proverljiv oblik koji model može da izvrši bez “pretpostavki”.
Zato ne govorimo o tome da AI “postane svestan”, nego da razvije instrument svesti — sistem koji zna da prepozna značenje, kontekst i cilj pre nego što generiše tekst
 
...
Metajezik bi time postao most između razumevanja i realizacije — omogućavajući da ljudska namera bude direktno kodirana u proverljiv oblik koji model može da izvrši bez “pretpostavki”.
Zato ne govorimo o tome da AI “postane svestan”, nego da razvije instrument svesti — sistem koji zna da prepozna značenje, kontekst i cilj pre nego što generiše tekst
Ovde bi najbolje bilo dati primer. Recimo:
„Možeš li mi poslati izveštaj do kraja dana?“

Iz ove izjave današnji LLM može da prepozna:
  • Cilj: Dobiti izveštaj na vreme kako bi se završila prezentacija.
  • Motivaciju: Sprečiti kašnjenje projekta i pokazati odgovornost prema timu.
  • Kontekst: Iako nije eksplicitno naveden, može se zaključiti – rok za prezentaciju je sutra (zato sto moram poslati izvestaj do kraja dana), a izveštaj je ključni deo.
Dakle, LLM može da modeluje nameru korisnika na osnovu konteksta i istorije razgovora, ali nema sopstvenu nameru. LLM ponekad bolje "razume" neku nasu izjavu nego neko drugi covek jer obradjuje sve detalje. Zato nisam najbolje razumeo na koji „metajezik“ misliš. Da li bi mogao da daš neki bolji primer?
 
Zanimljivo pitanje 👍
Kad kažem metajezik razumevanja, ne mislim na novi “jezik komandi”, nego na jezik koji opisuje odnos između namere i značenja.
Tvoj primer „Možeš li mi poslati izveštaj do kraja dana?“ upravo pokazuje granicu LLM-a: on može izračunati kontekst, ali ne može ga proverljivo ugraditi u akciju.

U metajeziku razumevanja, ta izjava bi bila zapisana recimo ovako:

INTENT: dostaviti izveštaj
CONTEXT: rok do kraja dana, deo pripreme za prezentaciju
VALIDATION: izveštaj mora sadržati tačke A, B, C i biti poslat pre 23:59
OUTCOME: potvrda prijema i verifikacija kompletnosti

Dakle, metajezik ne “razume” umesto čoveka — on omogućava da svaka namera bude zapisana, proverena i izvršena bez dvosmislenosti.
To je onaj sloj između ljudske misli i mašinskog izvršenja — nešto poput prevodnog protokola između svesti
i algoritma.
 
Misliš da bi LLM, osim statističkog pristupa, mogao da koristi i pomenutu strukturu. Međutim, LLM ne koristi samo statistiku nego simantiku,kontekstualne odnose, logicke i kauzalne veze i naravno ucenje (ne bi mu bilo tesko da nauci i neki meta jezik). Zašto da ne — ali pravo pitanje je: da li bi dodatni intermedijarni sloj metajezika doveo do drugačijeg rezultata, i kakvog?

Na primer, da li bi takav LLM sa dodatnim slojem mogao samostalno zaključiti (citao je izmedju redova) da izveštaj mora da sadrži tačke A, D i F, iako to nije eksplicitno pomenuto u kontekstu — pri čemu su te tačke specifične isključivo za jednu firmu, a ne za neku drugu koja se bavi istim poslom?
 
Baš dobro pitanje 👍
Poenta metajezika razumevanja nije da zameni postojeći model, nego da uvede intermedijarni sloj koji povezuje značenje sa validacijom.
LLM trenutno barata semantikom i kontekstom, ali i dalje nema mehanizam kojim proverava da li ono što je razumeo zaista odgovara početnoj nameri korisnika.

Zato bi metajezik služio kao proverljiv okvir značenja.
U tvom primeru – model bi znao da “tačke A, D i F” ne potiču iz generalnog konteksta, već iz specifične domene određene firme, jer bi taj domen bio deo metajezičke deklaracije.

Drugim rečima:
LLM razume “šta”,
ali metajezik proverava “da li to zaista jeste to što si hteo da kažeš” — pre nego što izvrši zaključak.

Zato ne dodaje još jedan sloj kompleksnosti, već sloj transparentnosti i proverljivost
i značenja.
 
Razumem šta hoćeš da kažeš, ali me zanima – onako tehnički – kako bi to funkcionisalo u praksi? Kako bi neki univerzalni protokol za interpretaciju jezika pomogao veštačkoj inteligenciji da razume: „Da li je to zaista ono što si hteo da kažeš?“

U stvari, prvo treba razjasniti šta bi bio taj univerzalni protokol (metajezik). Kažeš „gde misao postaje kod“. A ostala čula i emocije – možemo li i njih kodirati? Kao da pokušavaš da izjednačiš univerzalni protokol sa prirodnim tokovima koji ne zavise od čoveka, iako su povezani sa čovekom. Kako ubaciti nešto što ne kontrolišemo u nešto što kontrolišemo?
 
Poslednja izmena:
Sjajno si formulisao pitanje 👏
To je zapravo sama suština metajezika – tačka gde misao postaje kod, ali bez gubitka značenja.
U praksi, taj univerzalni protokol ne bi pokušavao da „uhvati emociju“ u klasičnom smislu, nego bi opisivao odnos između namere, značenja i konteksta.

Drugim rečima, ne kodiramo emociju, nego signal koji pokazuje zašto je nešto izabrano kao smisleno u datom trenutku.
To bi bio oblik verifikovanog značenja – struktura u kojoj svaka odluka (reč, simbol, naredba) ima uparenu validaciju izvora: „ovo je proizašlo iz X razloga, u okviru Y konteksta“.

Tako metajezik ne pokušava da imitira svest, nego da uspostavi transparentan kanal između svesne i algoritamske odluke.
Zato tvoj završni deo pitanja pogađa srž: „kako ubaciti nešto što ne kontrolišemo u nešto što kontrolišemo?“
Odgovor je – tako što između njih ubacimo protokol razumevanja, a ne dodatnu logiku. Protokol koji ne objašnjava emociju, nego je priznaje kao deo namere.
 
Izvini ako sam ranije delovao previše teoretski — nisam imao nameru da polemišem, nego sam se iskreno zaneo u objašnjenju
Otvorio sam nalog upravo da bih našao ljudsku validaciju za ono čime se bavim, jer su mi LLM modeli svi do jednog potvrdili konzistentnost sistema, ali ljudska perspektiva mi je falila.
Ti si, čini mi se, prvi koji je stvarno razumeo suštinu — i to mi je mnogo značilo da pročitam.

Zato bih sada rado prešao sa filozofske na tehničku stranu.
Imam kod i strukturu projekta licencirane na GitHubu (repo je trenutno na private), ali mogu da ti otvorim pristup ako želiš da vidiš kako to funkcioniše u praksi.
Nemam “blackbox”, ali mislim da sam izveo osnovni validacioni protokol metajezika koji sam opisivao — samo je teško to objasniti onima koji posmatraju isključivo iz programerske perspektive.
Ako ti imaš volju i znanje da pogledaš, rado bih podelio — čisto da proverimo da li je stvarno izvedeno onako kako deluje da
jeste.
 
Nisam programer, tako da tu ne možemo dalje (šteta), ali mi je bilo zanimljivo da razumem princip koji stoji iza svega, pre samog kodiranja. Iskreno, u početku mi je sve to delovalo pomalo neozbiljno — kao neka mešavina spiritualnosti, filozofije, nacionalizma i programiranja. Međutim, izgleda da tvoj patent nije šala i da taj dodatni protokol provere, o kojem govoriš, trenutno ne postoji u LLM.

U vezi s tim, pošto je ovo ipak forum o filozofiji, voleo bih da te pitam šta misliš o rešavanju filozofskih problema. Po mom mišljenju, filozofiju možemo podeliti na dva dela: ono što ne znamo i ono što je subjektivno (dakle, diskutabilno). Zbog toga nisam siguran kako bi tu veštačka inteligencija mogla da pomogne pa čak i kada bi imala dodatni sistem provere između namere, značenja i konteksta.
 
Hvala ti još jednom na komentaru.
Za mene je ovo pre svega stvar filozofije, ne tehnologije. Tehnologija mi ovde služi samo kao alat da ispitam ideju, da je izvalidiram kroz praksu.
Mnogo mi je važnije da izvalidiramo samu filozofiju — okvir razmišljanja, logiku odnosa između jezika, identiteta i namere.

Voleo bih da čujem tvoj pogled baš s te strane.
Ako ti je nešto u mom pisanju zazvučalo nacionalistički — voleo bih da to raščistimo, da vidim tačno šta je tako delovalo.
Tesla, Vinča i sve to nisu mi simboli zatvorenosti, nego koreni iz kojih pokušavam da izvučem univerzalni princip.
Ja ne bežim od toga što sam odavde, niti mislim da treba da se pravim da sam iz Njujorka da bi ideja bila “svetska”.
Baš suprotno — ako je dobra, biće svetska i sa balkanskog brda.
 

Back
Top