AI modeli često haluciniraju zbog načina na koji su trenirani, pa čak i nagrađeni za pogrešne procene, što dovodi do uverljivih ali netačnih odgovora.
Pokazalo se da najnapredniji AI modeli i dalje imaju ozbiljan problem – halucinacije. To znači da, iako zvuče ubedljivo i samouvereno često generišu netačne ili izmišljene informacije.
Primera nema malo
Foto: Shutterstock
U 2025. godini su se u SAD-u pojavili brojni sudski slučajevi u kojima su advokati oslanjajući se na AI-alate, podneli podneske sa izmišljenim pravnim izvorima – citati i reference koje nisu postojale. Neki su zbog toga i kažnjeni, piše “Lawnext”.
Stručna studija koja je ispitala popularne AI-alate za pravno istraživanje pokazala je da i oni i pored optimizacija i dalje “haluciniraju” između 17 odsto i 33 odsto vremena.
Rizik za kompanije i institucije
Foto: Shuterstock
Kako AI zauzima sve više uloga u preduzećima, oslanjanje na netačne informacije može imati ozbiljne posledice.
Prema analizi objavljenoj 2025, mnogi AI projekti ne uspevaju da pređu iz faze pilot-projekta u proizvodnu upotrebu – procene kažu da se veliki deo takvih inicijativa odustaje.
Čak i kada su u pitanju “visokoprecizni” modeli, kako navodi “AI Academy”, fenomen halucinacija ostaje, a u oblastima kao što su pravo, finansije, medicina ili bezbednost, posledice mogu biti dalekosežne.
Zašto se to dešava?
Foto: Shuterstock
Suština problema je u tome što veliki jezički modeli ne razumeju stvarnost kao ljudi, već samo predviđaju koju reč bi statistički trebalo da sledi u rečenici, što često nema nikakve veze s istinom.
Kada nemaju dovoljno podataka ili je pitanje previše složeno, radije “pogađaju” nego priznaju neizvesnost.
Istraživači iz OpenAI-ja nedavno su istakli da je koren problema u samom procesu učenja i ocenjivanja modela – današnji sistemi nagrađuju model čak i kada samo “pogađa”, pa zato često stvara uverljive, ali netačne odgovore.
Šta to znači za korisnike i kompanije
Foto: Shutterstock
AI ne treba koristiti kao konačni autoritet u oblastima gde je tačnost kritična – poput prava, medicine ili finansija.
Svaki AI-generisan podatak mora da se proveri citate, reference, činjenice.
Kompanije koje planiraju da uvedu AI, moraju razmotriti da li je model koji koriste adekvatan za njihove potrebe i rizike.
Poštovani čitaoci, možete nas pratiti i na platformama: Facebook,
Instagram,
Youtube,
Pridružite se i saznajte prvi najnovije informacije.
Naše aplikacije možete skinuti na:







Dodaj komentar