Radio BalkanFox

AI modeli daju netačne informacije

AI modeli često haluciniraju zbog načina na koji su trenirani, pa čak i nagrađeni za pogrešne procene, što dovodi do uverljivih ali netačnih odgovora.

Pokazalo se da najnapredniji AI modeli i dalje imaju ozbiljan problemhalucinacije. To znači da, iako zvuče ubedljivo i samouvereno često generišu netačne ili izmišljene informacije.

Primera nema malo

Foto: Shutterstock

 

U 2025. godini su se u SAD-u pojavili brojni sudski slučajevi u kojima su advokati oslanjajući se na AI-alate, podneli podneske sa izmišljenim pravnim izvorima – citati i reference koje nisu postojale. Neki su zbog toga i kažnjeni, piše “Lawnext”.

Stručna studija koja je ispitala popularne AI-alate za pravno istraživanje pokazala je da i oni i pored optimizacija i dalje “haluciniraju” između 17 odsto i 33 odsto vremena.

Rizik za kompanije i institucije

Foto: Shuterstock

 

Kako AI zauzima sve više uloga u preduzećima, oslanjanje na netačne informacije može imati ozbiljne posledice.

Prema analizi objavljenoj 2025, mnogi AI projekti ne uspevaju da pređu iz faze pilot-projekta u proizvodnu upotrebu – procene kažu da se veliki deo takvih inicijativa odustaje. 

Čak i kada su u pitanju “visokoprecizni” modeli, kako navodi “AI Academy”, fenomen halucinacija ostaje, a u oblastima kao što su pravo, finansije, medicina ili bezbednost, posledice mogu biti dalekosežne.

Zašto se to dešava?

Foto: Shuterstock

 

Suština problema je u tome što veliki jezički modeli ne razumeju stvarnost kao ljudi, već samo predviđaju koju reč bi statistički trebalo da sledi u rečenici, što često nema nikakve veze s istinom.

Kada nemaju dovoljno podataka ili je pitanje previše složeno, radije “pogađaju” nego priznaju neizvesnost.

Istraživači iz OpenAI-ja nedavno su istakli da je koren problema u samom procesu učenja i ocenjivanja modela – današnji sistemi nagrađuju model čak i kada samo “pogađa”, pa zato često stvara uverljive, ali netačne odgovore.

Šta to znači za korisnike i kompanije

Foto: Shutterstock

 

AI ne treba koristiti kao konačni autoritet u oblastima gde je tačnost kritična – poput prava, medicine ili finansija.

Svaki AI-generisan podatak mora da se proveri citate, reference, činjenice.

Kompanije koje planiraju da uvedu AI, moraju razmotriti da li je model koji koriste adekvatan za njihove potrebe i rizike.

Poštovani čitaoci, možete nas pratiti i na platformama: Facebook,
Instagram,
Youtube,

Viber.

Pridružite se i saznajte prvi najnovije informacije.

Naše aplikacije možete skinuti na:



Strogo je zabranjeno! ChatGPT ne sme da priča o ovim ljudima - razlog je šokantan

Hi-Tech

ChatGPT je izuzetno koristan kada hoćemo brzo da dođemo do neke informacije, ali i on ima svoje slabe tačke.

sledeća vest




Informer

radiobalkanfox

Dodaj komentar

RadioBalkanfox na Facebook

Facebook Pagelike Widget