Markovljev lanac
U matematici Markovljev lanac nazvan po Andreju Andrejeviču Markovu predstavljaju niz stanja sustava. U svakome trenutku sustav može preći u neko novo stanje ili može ostati u istome stanju. Promjene stanja nazivaju se tranzicije. Ako slijed stanja ima Markovljevo svojstvo to znači da je svako buduće stanje vremenski neovisno o svakome prijašnjem stanju.
Markovljev lanac je slijed slučajnih varijabla X1, X2, X3, ... s Markovljevim svojstvom i to zato što su trenutno, buduće i prošlo stanje nezavisni
Moguće vrijednosti Xi formiraju prebrojivi skup S nazvan 'stanje prostora lanca.
Markovljevi lanci se često opisuju direktnim grafom gdje su bridovi označeni vjerojatnošću koja predstavlja prelazak iz jednog stanja u drugo.
Na željezničkoj pruzi nalazi se semafor na kojem gori ili crveno (C) ili zeleno (Z) svjetlo. U ovom primjeru željeznička pruga i semafor predstavljaju jedan sustav. Pretpostavimo da smo u nekom vremenskom intervalu promatrali u kojem se stanju nalazi naš sustav i da smo registrirali sljedeći niz:
C, C, Z, Z, Z, C, Z, Z, C, C, C, Z, Z, Z, C, Z. (*)
U mnogim problemima se želi na osnovu sadašnjega stanja sustava predvidjeti u kom stanju će biti sustav prilikom sljedećeg ili nekoga kasnijega promatranja. Na osnovu nekoga promatranoga stanja ne možemo sa sigurnošću predvidjeti neko stanje već odrediti s kojom vjerojatnošću će se sustav nalaziti u nekom određenom stanju. Za ovaj primjer zanimljiva su sljedeća pitanja:
- Ako je sustav sada u stanju C, kolika je vjerojatnost da će pri sljedećem promatranju biti u stanju C?
- Ako je sustav sad u stanju C, kolika je vjerojatnost da će pri sljedećem promatranju biti u stanju Z?
- Ako je sustav sad u stanju Z, kolika je vjerojatnost da će pri sljedećem promatranju biti u stanju C?
- Ako je sustav sad u stanju Z, kolika je vjerojatnost da će pri sljedećem promatranju biti u stanju Z?
Pokušajmo odgovoriti na ova pitanja. Iz niza (*) vidimo da je sustav u stanju C bio 7 puta. U 3 slučaja sustav je ostao u stanju C, a u 4 iz stanja C prešao u stanje Z. Zaključujemo da je:
p („sustav je bio u stanju C i ostao u stanju C“ ) = ,a
p („sustav je bio u stanju C i prešao u stanje Z“) =
Iz niza (*) zaključujemo da je
p („sustav je bio u stanju Z i ostao u stanju Z“) =
p („sustav je bio u stanju Z i prešao u stanje C“) =
Informacije o vjerojatnostima prijelaza sustava iz jednoga u drugo stanje možemo zapisati koristeći matrični račun:
Naznačena matrica zove se matrica prijelaznih vrijednosti i obično se označava sa P, a njezini elementi, gdje su indeksi , iz skupa svih stanja. Matricu P možemo zapisati i pomoću stabla.
Uočimo da je suma svih grana koje izlaze iz bilo kojeg čvora jednaka 1.
Dakle možemo reći :
Markovljev lanac je niz diskretnih slučajnih varijabli
koji zadovoljavaju uvjete:
- varijable opisuju stanje nekog fizičkog sustava u vremenima t0, t1, t2, ...
- prijelaz iz jednog stanja u drugo u trenutku tn opisan je matricom prijelaznih vjerojatnosti (To je matrica s elementima pij(n), a naziva se jos i matrica prijelaznih vrijednosti)
- lanac je markovljev ako stanje sustava u trenutku tn ovisi samo o stanju u prethodnom trenutku, tj.
Markovljevi lanci danas imaju široki spektar upotrebe, tako da se upotrebljavaju u statistici, biologiji, pa čak i u književnosti. Neka od područja primjene su: modeliranje različitih procesa u teoriji redova i statistici, aritmetičko kodiranje, populacijski procesi, upotreba u bioinformatici za genetsko kodiranje, prepoznavanje osobe na temelju slike, predviđanje vremenske prognoze, skladanje glazbe, generiranje teksta, itd.
Ako Markovljev lanac ima k mogućih stanja koje označavamo 1,2,3,...k onda se vjerojatnost da je sustav u stanju j u trenutku t+1 nakon što je bio u stanju i u trenutku t označava pij i zove se vjerojatnost prijelaza iz stanja i u stanje j. Matrica P=[ pij] se zove matrica prijelaza Markovljevoga lanca. Zbroj elemenata u svakom stupcu matrice prijelaznih vrijednosti
naziva se stohastička matrica, matrica vjerojatnosti ili Markovljeva matrica. (u primjeru 1 uočili smo da je zbroj vjerojatnosti grana koje izlaze iz jednoga čvora 1 )
Za svako stanje
Prijelazna vjerojatnost predstavlja uvjetnu vjerojatnost da će se sustav naći u j-tom stanju ako se prethodno nalazio u i-tom stanju.
Ako se vratimo na naš primjer onda možemo sa označiti vjerojatnost da će sustav naći u stanju 1, a sa da će sustav na početku biti u stanju 2. u našem primjeru je
Izračunajmo vjerojatnost da će se prilikom sljedećeg promatranja sustav nalaziti u stanju 1, odnosno 2. primjenom formule za totalnu vjerojatnost dobivamo sljedeći sustav linearnih jednadžbi :
Označimo li sa vektor-redak početnih vrijednosti,a sa vektor-redak vjerojatnosti u sljedećem promatranju, onda sustav možemo pisati i u skraćenom obliku :
Ako je P matrica prijelaznih vrijednosti za Markovljev proces, a p1 vektor-redak početnih vjerojatnosti, onda je
vektor-redak za iduće promatranje .
U našem primjeru je
Dakle, ako se sustav s vjerojatnošću nalazi na početku ( to jest pri prvom promatranju) u stanju 1, a s vjerojatnošću u stanju 2 onda će se s vjerojatnošću nalaziti u stanju 1 pri sljedećem promatranju.
Markovljev lanac koji je određen regularnom matricom prijelaza se zove regularni markovljev lanac. Matrica prijelaza je regularna ako neke njezine cjelobrojne potencije imaju sve pozitivne unose. Markovljev lanac ima stalan vektor stanja q takav da ide prema 'q' kako se 'n' proizvoljno povećava za . Zaključujemo da će vektor stanja u sustav nakon n promatranja postati stalan i tada će za svaki ishod biti jednaka prethodnoj.
Zamislimo da je Q takva prijelazna matrica čiji su svi stupci jednaki vektoru vjerojatnosti q. Takva matrica će svaki vektor stanja transformirati u stalni vektor stanja. Teorem koji govori (a ovdje nije naveden) da je zbroj stupaca u bilo kojem promatranju za jednak 1 implicira tako da . Ovo dalje implicira tako da . Stoga, za regularni Markovljev lanac, sustav se približava fiksnome vektoru stanja q. Vektor q se zove pouzdani vektor stanja. Za sustave s mnogo stanja, obično najučinkovitiji način za računanje pouzdanoga vektora stanja jest da se izračuna za neki veliki n.