Od sveznalice do skromnog asistenta: ChatGPT-5 menja igru, a odgovor koji je dao na upit postao viralan

Veštačka inteligencija

ChatGPT-5 uvodi važnu promenu – umesto da izmišlja odgovore kada nije siguran, sada otvoreno priznaje da ne zna. Na taj način smanjuje rizik od tzv. „halucinacija“, gradi veće poverenje korisnika i ponašanjem se sve više približava ljudskom načinu razmišljanja.

Od kada je veštačka inteligencija postala deo svakodnevnog života, jedno od glavnih pitanja bilo je koliko su njeni odgovori zaista pouzdani. Veliki jezički modeli često nastupaju samouvereno, bez obzira na to da li je odgovor tačan ili potpuno pogrešan. Ta sklonost, poznata kao halucinacija, izazivala je nezadovoljstvo kod korisnika, pa čak i neprijatne situacije za same timove koji razvijaju tehnologiju.

Prekretnica u ponašanju ChatGPT-5

Veliku pažnju izazvala je nedavna objava na mreži X, kada je digitalni kreator Kol Tregaskes podelio odgovor ChatGPT-5 na jedno pitanje: „Ne znam – i ne mogu pouzdano da saznam.“ Ovaj trenutak privukao je pažnju jer raniji modeli gotovo nikada nisu priznavali neznanje, već su neretko izmišljali izvore, brojke ili citate.

Takva iskrenost pokazuje novi pravac, ka transparentnosti umesto fabrikovanja sadržaja. Kada chatbot odbije da izmisli odgovor, on zapravo potvrđuje ideju da se poverenje gradi istinom, a ne nagađanjem.

Zašto dolazi do halucinacija?

Za razliku od pretraživača, veliki jezički modeli ne „vade“ podatke iz baze činjenica. Njihov princip rada zasniva se na predviđanju sledeće najverovatnije reči na osnovu obrazaca u podacima na kojima su trenirani. Kada dobiju složeno ili specifično pitanje, oni ne traže informaciju, već pokušavaju da sastave logičan odgovor – što često dovodi do izmišljenih detalja.

Upozorenja o nepouzdanosti AI sistema postoje odavno, ali ih korisnici često ignorišu. Ipak, kada veštačka inteligencija jasno kaže da na nešto ne može da odgovori, ono što ipak izgovori deluje uverljivije. Za neke je priznanje „Ne znam“ znak slabosti, dok je za druge dokaz ozbiljnosti i odgovornosti.

Na paradoksalan način, ovakav pristup čini ChatGPT-5 – ljudskijim. Ako veštačka opšta inteligencija (AGI) treba da imitira čoveka, onda mora da odražava ne samo znanje već i nesigurnost. Ponekad je najveća mudrost u tome da otvoreno priznaš granice onoga što znaš, piše zimo.dnevnik.hr.

Tagovi:
Pročitajte još: