Markovljev lanac

Izvor: testwiki
Prijeđi na navigaciju Prijeđi na pretraživanje

U matematici Markovljev lanac nazvan po Andreju Andrejeviču Markovu predstavljaju niz stanja sustava. U svakome trenutku sustav može preći u neko novo stanje ili može ostati u istome stanju. Promjene stanja nazivaju se tranzicije. Ako slijed stanja ima Markovljevo svojstvo to znači da je svako buduće stanje vremenski neovisno o svakome prijašnjem stanju.

Formalna definicija

Markovljev lanac je slijed slučajnih varijabla X1, X2, X3, ... s Markovljevim svojstvom i to zato što su trenutno, buduće i prošlo stanje nezavisni

Pr(Xn+1=x|Xn=xn,,X1=x1)=Pr(Xn+1=x|Xn=xn).


Moguće vrijednosti Xi formiraju prebrojivi skup S nazvan 'stanje prostora lanca.

Markovljevi lanci se često opisuju direktnim grafom gdje su bridovi označeni vjerojatnošću koja predstavlja prelazak iz jednog stanja u drugo.

Primjer 1

Na željezničkoj pruzi nalazi se semafor na kojem gori ili crveno (C) ili zeleno (Z) svjetlo. U ovom primjeru željeznička pruga i semafor predstavljaju jedan sustav. Pretpostavimo da smo u nekom vremenskom intervalu promatrali u kojem se stanju nalazi naš sustav i da smo registrirali sljedeći niz:

   C, C, Z, Z, Z, C, Z, Z, C, C, C, Z, Z, Z, C, Z. (*)

U mnogim problemima se želi na osnovu sadašnjega stanja sustava predvidjeti u kom stanju će biti sustav prilikom sljedećeg ili nekoga kasnijega promatranja. Na osnovu nekoga promatranoga stanja ne možemo sa sigurnošću predvidjeti neko stanje već odrediti s kojom vjerojatnošću će se sustav nalaziti u nekom određenom stanju. Za ovaj primjer zanimljiva su sljedeća pitanja:

  1. Ako je sustav sada u stanju C, kolika je vjerojatnost da će pri sljedećem promatranju biti u stanju C?
  2. Ako je sustav sad u stanju C, kolika je vjerojatnost da će pri sljedećem promatranju biti u stanju Z?
  3. Ako je sustav sad u stanju Z, kolika je vjerojatnost da će pri sljedećem promatranju biti u stanju C?
  4. Ako je sustav sad u stanju Z, kolika je vjerojatnost da će pri sljedećem promatranju biti u stanju Z?

Pokušajmo odgovoriti na ova pitanja. Iz niza (*) vidimo da je sustav u stanju C bio 7 puta. U 3 slučaja sustav je ostao u stanju C, a u 4 iz stanja C prešao u stanje Z. Zaključujemo da je:

p („sustav je bio u stanju C i ostao u stanju C“ ) = 37,a
p („sustav je bio u stanju C i prešao u stanje Z“) = 47

Iz niza (*) zaključujemo da je

p („sustav je bio u stanju Z i ostao u stanju Z“) = 58
p („sustav je bio u stanju Z i prešao u stanje C“) =38


Informacije o vjerojatnostima prijelaza sustava iz jednoga u drugo stanje možemo zapisati koristeći matrični račun:

Naznačena matrica zove se matrica prijelaznih vrijednosti i obično se označava sa P, a njezini elementi, gdje su indeksi pij, iz skupa svih stanja. Matricu P možemo zapisati i pomoću stabla.

Uočimo da je suma svih grana koje izlaze iz bilo kojeg čvora jednaka 1.
Dakle možemo reći :
Markovljev lanac je niz diskretnih slučajnih varijabli x0,x1,x2 ...xn koji zadovoljavaju uvjete:

  • varijable opisuju stanje nekog fizičkog sustava u vremenima t0, t1, t2, ...
  • prijelaz iz jednog stanja u drugo u trenutku tn opisan je matricom prijelaznih vjerojatnosti (To je matrica s elementima pij(n), a naziva se jos i matrica prijelaznih vrijednosti)
  • lanac je markovljev ako stanje sustava u trenutku tn ovisi samo o stanju u prethodnom trenutku, tj.

 P { 𝐗𝐧 = 𝐬𝐢𝐧 | 𝐗𝐧𝟏 =𝐬𝐢𝐧𝟏 , ... , 𝐗𝟏 = 𝐬𝐢𝟏 } = P { 𝐗𝐧 = 𝐬𝐢𝐧 | 𝐗𝐧𝟏 =𝐬𝐢𝐧𝟏 }


Markovljevi lanci danas imaju široki spektar upotrebe, tako da se upotrebljavaju u statistici, biologiji, pa čak i u književnosti. Neka od područja primjene su: modeliranje različitih procesa u teoriji redova i statistici, aritmetičko kodiranje, populacijski procesi, upotreba u bioinformatici za genetsko kodiranje, prepoznavanje osobe na temelju slike, predviđanje vremenske prognoze, skladanje glazbe, generiranje teksta, itd.

Stohastička matrica i vektor stanja Markovljevog lanca

Ako Markovljev lanac ima k mogućih stanja koje označavamo 1,2,3,...k onda se vjerojatnost da je sustav u stanju j u trenutku t+1 nakon što je bio u stanju i u trenutku t označava pij i zove se vjerojatnost prijelaza iz stanja i u stanje j. Matrica P=[ pij] se zove matrica prijelaza Markovljevoga lanca. Zbroj elemenata u svakom stupcu matrice prijelaznih vrijednosti (p1j+p2j+...+pkj=1) naziva se stohastička matrica, matrica vjerojatnosti ili Markovljeva matrica. (u primjeru 1 uočili smo da je zbroj vjerojatnosti grana koje izlaze iz jednoga čvora 1 )

i=1npij=1


Za svako stanje i{1,2,...,n} Prijelazna vjerojatnost pij predstavlja uvjetnu vjerojatnost da će se sustav naći u j-tom stanju ako se prethodno nalazio u i-tom stanju.

Ako se vratimo na naš primjer onda možemo sa p11 označiti vjerojatnost da će sustav naći u stanju 1, a sa p21 da će sustav na početku biti u stanju 2. u našem primjeru je


p11=716, p21=916


Izračunajmo vjerojatnost pi2,i{1,2} da će se prilikom sljedećeg promatranja sustav nalaziti u stanju 1, odnosno 2. primjenom formule za totalnu vjerojatnost dobivamo sljedeći sustav linearnih jednadžbi :


p11p11+p21p21=p12p11p12+p21p22=p22ili u matri cˇ nom obliku [p12 p22]=[p11 p21][p11p12p21p22]


Označimo li sa p1 vektor-redak početnih vrijednosti,a sa p2 vektor-redak vjerojatnosti u sljedećem promatranju, onda sustav možemo pisati i u skraćenom obliku :


p2=p1P


Ako je P matrica prijelaznih vrijednosti za Markovljev proces, a p1 vektor-redak početnih vjerojatnosti, onda je


p2=p1P

vektor-redak za iduće promatranje .


U našem primjeru je


p1=[716 916] pa je p2=[716 916][37473858]=[51128 77128]


Dakle, ako se sustav s vjerojatnošću p11=716 nalazi na početku ( to jest pri prvom promatranju) u stanju 1, a s vjerojatnošću p21=916 u stanju 2 onda će se s vjerojatnošću p12=51128 nalaziti u stanju 1 pri sljedećem promatranju.

Regularni Markovljevi Lanci

Markovljev lanac koji je određen regularnom matricom prijelaza se zove regularni markovljev lanac. Matrica prijelaza je regularna ako neke njezine cjelobrojne potencije imaju sve pozitivne unose. Markovljev lanac ima stalan vektor stanja q takav da Pnx(0) ide prema 'q' kako se 'n' proizvoljno povećava za x(0). Zaključujemo da će vektor stanja u sustav nakon n promatranja postati stalan i tada će za svaki ishod biti jednaka prethodnoj.


Pouzdani vektor stanja

Zamislimo da je Q takva prijelazna matrica čiji su svi stupci jednaki vektoru vjerojatnosti q. Takva matrica će svaki vektor stanja transformirati u stalni vektor stanja. Teorem koji govori (a ovdje nije naveden) da je zbroj stupaca u bilo kojem promatranju za Pn jednak 1 implicira PnQ tako da n. Ovo dalje implicira PnxQx=q tako da n. Stoga, za regularni Markovljev lanac, sustav se približava fiksnome vektoru stanja q. Vektor q se zove pouzdani vektor stanja. Za sustave s mnogo stanja, obično najučinkovitiji način za računanje pouzdanoga vektora stanja jest da se izračuna Pnx za neki veliki n.