Markov chain

Üdvözlöm, Ön a Markov chain szó jelentését keresi. A DICTIOUS-ban nem csak a Markov chain szó összes szótári jelentését megtalálod, hanem megismerheted az etimológiáját, a jellemzőit és azt is, hogyan kell a Markov chain szót egyes és többes számban mondani. Minden, amit a Markov chain szóról tudni kell, itt található. A Markov chain szó meghatározása segít abban, hogy pontosabban és helyesebben fogalmazz, amikor beszélsz vagy írsz. AMarkov chain és más szavak definíciójának ismerete gazdagítja a szókincsedet, és több és jobb nyelvi forráshoz juttat.

Főnév

Markov chain (tsz. Markov chains)

  1. (informatika) Markov-lánc

A Markov-lánc (angolul Markov chain) egy olyan sztochasztikus (valószínűségi) modell, amely állapotok közötti átmeneteket ír le egy valószínűségi szabály alapján. A Markov-lánc különlegessége, hogy a következő állapot csak az aktuális állapottól függ, és nem az odavezető múltbeli úttól. Ezt az elvet nevezzük Markov-tulajdonságnak vagy memória nélküli viselkedésnek.



1. Alapfogalmak

  • Állapottér (state space): Az összes lehetséges állapot halmaza, amelyben a rendszer tartózkodhat. Lehet véges vagy végtelen. Példa: Állapotok = {Napfényes, Felhős, Esős}
  • Átmeneti valószínűségek (transition probabilities): Az egyes állapotok közötti mozgás valószínűsége. Példa:
  • Átmeneti mátrix (transition matrix): Egy mátrix, amely az összes állapotpár közötti átmeneti valószínűségeket tartalmazza.
  • Markov-tulajdonság:

Ez azt jelenti, hogy a jövő csak a jelen állapottól függ, nem a múlttól.



2. Típusai

a) Diszkrét idejű Markov-lánc (DTMC – Discrete-Time Markov Chain)

Az állapotváltozás diszkrét lépésekben történik. Ilyenkor egy idősorozatot kapunk, ahol minden lépésben egy adott valószínűség szerint történik az állapotváltozás.

b) Folytonos idejű Markov-lánc (CTMC – Continuous-Time Markov Chain)

Az állapotváltozások folyamatos időben, exponenciálisan eloszló időközönként történnek. Ilyen például a Poisson-folyamat.



3. Átmeneti mátrix (P)

Tegyük fel, hogy van három állapot: A, B, C. Az átmeneti mátrix például lehet:

  • Minden sor az aktuális állapotot jelenti
  • Az oszlopok a következő állapotokat
  • A sorösszeg mindig 1



4. Kezdeti eloszlás (initial distribution)

Ez azt adja meg, hogy a rendszer milyen valószínűséggel indul az egyes állapotokból. Például:

→ A rendszer biztosan az A állapotból indul.



5. Állapoteloszlás időben

A Markov-lánc evolúciója során az állapoteloszlás így alakul:

Többszöri szorzással meghatározható a valószínűségeloszlás bármelyik időpillanatban:



6. Stacionárius (egyensúlyi) eloszlás

Egy stacionárius eloszlás teljesíti:

Ez az eloszlás nem változik idővel — ha a rendszer ebben indul, mindig ugyanilyen marad. A legtöbb ergodikus (azaz “jó viselkedésű”) Markov-láncnak létezik ilyen.



7. Ergodikus és visszatérő állapotok

  • Visszatérő állapot: A rendszer előbb-utóbb biztosan visszatér ebbe az állapotba.
  • Ergodikus lánc: Olyan lánc, amely minden állapotból bármelyik másikba eljuthat, véges időn belül.
  • Periodikus állapot: Csak bizonyos lépésszámra térhet vissza önmagába (pl. minden második lépésre).



8. Példák

a) Időjárás

Állapotok: Napos (N), Felhős (F), Esős (E)

Átmeneti mátrix:

Ha ma napos az idő, akkor holnap 60% eséllyel marad napos, 30% eséllyel felhős, stb.



b) Internetes felhasználó viselkedésmodell

Állapotok: Kezdőlap (K), Termékoldal (T), Kosár (C), Kilépett (L)

Egy Markov-lánccal modellezhetjük, hogyan mozog a felhasználó az oldalon. Ebből megérthető, hová érdemes reklámot tenni.



c) Játékmodellek (pl. Monopoly)

A játékos mozgása a táblán egy Markov-láncként modellezhető, ahol a dobókocka valószínűsége határozza meg az átmeneteket.



9. Gyakorlati alkalmazások

  • Gépi tanulás: Rejtett Markov-modellek (HMM) hangfelismerésben, nyelvfeldolgozásban.
  • Pénzügy: Árak változása (pl. részvények), kockázatelemzés.
  • Hálózatelemzés: Google PageRank algoritmusa is egy Markov-láncon alapul.
  • Karbantartás: Egy gép működési és hibás állapotait is modellezhetjük így.
  • Bioinformatika: DNS-szekvenciák mintázatainak elemzése.



10. Rejtett Markov-modell (HMM – Hidden Markov Model)

Speciális Markov-modell, ahol az állapotokat nem közvetlenül látjuk, csak a hozzájuk kapcsolódó megfigyeléseket. Használatos beszédfelismerésben, szöveganalízisben, genomikában.



11. Markov-lánc Monte Carlo (MCMC)

Egy fontos numerikus módszer, amely Markov-láncokat használ valószínűségi eloszlásokból való mintavételre. Kulcsszerepet játszik a Bayes-statisztikában, gépi tanulásban és fizikai szimulációkban.



12. Összefoglalás

A Markov-lánc egy hatékony eszköz szekvenciális, véletlenszerű rendszerek modellezésére, ahol az aktuális állapot határozza meg a következő lépés valószínűségét. Alkalmas időfüggő döntések, viselkedésmodellek, rendszerek stabilitásának vizsgálatára, és sok területen alkalmazzák az ipartól kezdve a gépi tanulásig.

Főbb tulajdonságai:

  • Jövőbeli állapot csak a jelen állapottól függ (Markov-tulajdonság)
  • A rendszer állapotváltozásait valószínűségek írják le
  • Az állapoteloszlás hosszú távon elérhet stabilitást (stacionárius eloszlás)