5 ZAKLJUČIVANJE I RASUĐIVANJE
P(G|N) je vjerojatnost da je kupac platio gotovinom uz to što se trgovac i nasmijao, P(N|G) je
vjerojatnost da će se trgovac nasmijati ako kupac plati gotovinom, a P(G) je a priori vjerojatnost da će
kupac platiti gotovinom. Zaključak je da je uz osmjeh prodavača povećana vjerojatnost da je kupac platio
gotovinom. Skriveni Markovljevi modeli važan su dio algoritama za lokalizaciju robota ili automatske
vožnje automobila koji sam vozi.
5.2.7 Klasifikator neosporne konfabulacije
Klasifikator neosporne konfabulacije (engl. Cogent Confabulation Classifier)
je malo
drugačiji od naivnog Bayesovog klasifikatora, a nastao je kao rezultat istraživanja načina kako čovjek
zaključuje i rasuđuje. Dio je teorije mehanizma razmišljanja (engl. The Mechanism of Thought)
(Hecht-Nielsen, 2005, 2006), a odlikuje ga jednostavna implementacija i brzo računanje. Slično kao i
Bayesov teorem neosporna konfabulacija nastoji modelirati induktivno zaključivanje i generalizirati
Aristotelovu implikaciju
a,b,c,d a e, gdje su a, b, c i d četiri različite pretpostavke (premise) na temelju kojih se donosi zaključak
e. Ako postoje vjerojatnosti pojave a,b,c,d, uz pretpostavku da će se događaj e dogoditi, vjerojatnost
događaja e može se izraziti Bayesovim teoremom kao a posteriori vjerojatnost p(e|abcd) definirana
jednadžbom:
p(e|a,b,c,d) = p(a,b,c,d|e)
.
p(e)/p(a,b,c,d )=
= p(a|b,c,d,e)
.
p(b|c,d,e)
.
p(c|d,e)
.
p(d|e)/(p(a|b,c,d)
.
p(b|c,d)
.
p(c|d)
.
p(d)) (5-27)
U teoriji neosporne konfabulacije pristup je potpuno okrenut, te se traži složena uvjetna
vjerojatnost p(a,b,c,d|e) da se uz događaj e pojave i pretpostavke a,b,c,d. U teoriji neosporne konfabulacije
p(a,b,c,d|e) se naziva neospornost (engl. Cogency). Teorija smatra da se proces donošenja odluka kod
ljudi temelji na izboru zaključka koji je najviše podržan istinitim pretpostavkama. Autor teorije Hecht-
Nielsen ovu je ideju ilustrirao pričom (Hecht-Nielsen, 2005): „… ako stvorenje veličine patke sliči na patku,
hoda kao patka, pliva poput patke i leti poput patke (premise a,b,c,d), onda ga prihvaćamo kao patku, zato
što je patka (e), simbol koji, kad se vidi, najjače podupire vjerojatnost da su te premise istinite i maksimira
p(a,b,c,d | e).”
Bayesov pristup potpuno je drugačiji, zbog toga što on sugerira da se izabere događaj e koji ima
maksimalnu a posteriori vjerojatnost p(e|a,b,c,d), uz prisutne premise a,b,c,d. Ovo je, prema teoriji
neosporne konfabulacije, pogrešan opis ljudskog načina donošenja zaključaka kojeg Hecht-Nielsen
ilustrira jednostavnim primjerom danim u nastavku teksta.
Primjer pogrešnog zaključivanja Bayesovim teoremom
Pretpostavimo da za premise a,b,c,d postoje dva moguća zaključka e i f koji imaju a priori
vjerojatnosti pojavljivanja p(e) = 0,01 i p(f) = 0,0001, što znači da je 10 puta veća vjerojatnost da se dogodi
e nego f, ili kazano na drugi način, u skupu testnih podataka e se pojavio 10 puta više nego f. Uzmimo kao
primjer sliku 4-8 koja prikazuje dim šumskog požara i neka je događaj e = „pojava kuće na slici”, a događaj
f = „pojava dima na slici”. Prema a priori vjerojatnostima na svakih 100 slika na jednoj će se pojaviti
kuća, a na svakih 10.000 slika na jednoj će se pojaviti dim. Dim je puno rjeđa pojava nego kuća.
Pretpostavimo sada da imamo kombinaciju svojstava a,b,c,d koja se kod pojave e javljaju s uvjetnom
vjerojatnosti p(a,b,c,d |e) = 0,01 (na 100 pojava događaja tipa e samo 1 ima kombinaciju a,b,c,d), a kod
pojave f s uvjetnom vjerojatnosti p(a,b,c,d|f) = 0,2 (na sto događaja tipa f njih 20 ima kombinaciju a,b,c,d).
Prema Bayesovom teoremu ako na slici primijetimo kombinaciju a,b,c,d vjerojatnost da se radi o
zaključku e je čak 5 puta veća od vjerojatnosti da se radi o zaključku f
A2b$;O'c'd'e4f$A2g$;O'c'd'e4$$8!
A2O'c'd'e$;b4$D$$A2b4$fA2O'c'd'e4
A2O'c'd'e$;g4$D$$A2g4$fA2O'c'd'e4
8 $E'E&∙ $E'E&fE'($∙ $E'EEE&$ 8 $K$
pa bi po Bayesu, svaki put kada bi se javila kombinacija a,b,c,d, zaključak bio da se radi o pojavi e (kući),
što se ne slaže s našim zdravim razumom. Kombinacija a,b,c,d je čak 20 puta češća kod događaja f (dima),
ali samo zato što je on rjeđi, Bayesov teorem ne izabire njega, već zaključak e.
Zaključivanje na temelju neosporne konfabulacije izabire onaj zaključak koji ima veću uvjetnu
vjerojatnost (neospornost). U ovom su primjeru uvjetne vjerojatnosti p(a,b,c,d |e) i p(a,b,c,d |f) bile