szó jelentését keresi. A DICTIOUS-ban nem csak a
szó összes szótári jelentését megtalálod, hanem megismerheted az etimológiáját, a jellemzőit és azt is, hogyan kell a
szót egyes és többes számban mondani. Minden, amit a
szóról tudni kell, itt található. A
szó meghatározása segít abban, hogy pontosabban és helyesebben fogalmazz, amikor beszélsz vagy írsz. A
és más szavak definíciójának ismerete gazdagítja a szókincsedet, és több és jobb nyelvi forráshoz juttat.
Főnév
Markov chain (tsz. Markov chains)
- (informatika) Markov-lánc
A Markov-lánc (angolul Markov chain) egy olyan sztochasztikus (valószínűségi) modell, amely állapotok közötti átmeneteket ír le egy valószínűségi szabály alapján. A Markov-lánc különlegessége, hogy a következő állapot csak az aktuális állapottól függ, és nem az odavezető múltbeli úttól. Ezt az elvet nevezzük Markov-tulajdonságnak vagy memória nélküli viselkedésnek.
1. Alapfogalmak
- Állapottér (state space): Az összes lehetséges állapot halmaza, amelyben a rendszer tartózkodhat. Lehet véges vagy végtelen. Példa: Állapotok = {Napfényes, Felhős, Esős}
- Átmeneti valószínűségek (transition probabilities): Az egyes állapotok közötti mozgás valószínűsége. Példa:

- Átmeneti mátrix (transition matrix): Egy mátrix, amely az összes állapotpár közötti átmeneti valószínűségeket tartalmazza.
- Markov-tulajdonság:
Ez azt jelenti, hogy a jövő csak a jelen állapottól függ, nem a múlttól.
2. Típusai
a) Diszkrét idejű Markov-lánc (DTMC – Discrete-Time Markov Chain)
Az állapotváltozás diszkrét lépésekben történik. Ilyenkor egy idősorozatot kapunk, ahol minden lépésben egy adott valószínűség szerint történik az állapotváltozás.
b) Folytonos idejű Markov-lánc (CTMC – Continuous-Time Markov Chain)
Az állapotváltozások folyamatos időben, exponenciálisan eloszló időközönként történnek. Ilyen például a Poisson-folyamat.
3. Átmeneti mátrix (P)
Tegyük fel, hogy van három állapot: A, B, C. Az átmeneti mátrix például lehet:
- Minden sor az aktuális állapotot jelenti
- Az oszlopok a következő állapotokat
- A sorösszeg mindig 1
4. Kezdeti eloszlás (initial distribution)
Ez azt adja meg, hogy a rendszer milyen valószínűséggel indul az egyes állapotokból. Például:
→ A rendszer biztosan az A állapotból indul.
5. Állapoteloszlás időben
A Markov-lánc evolúciója során az állapoteloszlás így alakul:
Többszöri szorzással meghatározható a valószínűségeloszlás bármelyik időpillanatban:
6. Stacionárius (egyensúlyi) eloszlás
Egy stacionárius eloszlás
teljesíti:
Ez az eloszlás nem változik idővel — ha a rendszer ebben indul, mindig ugyanilyen marad. A legtöbb ergodikus (azaz “jó viselkedésű”) Markov-láncnak létezik ilyen.
7. Ergodikus és visszatérő állapotok
- Visszatérő állapot: A rendszer előbb-utóbb biztosan visszatér ebbe az állapotba.
- Ergodikus lánc: Olyan lánc, amely minden állapotból bármelyik másikba eljuthat, véges időn belül.
- Periodikus állapot: Csak bizonyos lépésszámra térhet vissza önmagába (pl. minden második lépésre).
8. Példák
a) Időjárás
Állapotok: Napos (N), Felhős (F), Esős (E)
Átmeneti mátrix:
Ha ma napos az idő, akkor holnap 60% eséllyel marad napos, 30% eséllyel felhős, stb.
b) Internetes felhasználó viselkedésmodell
Állapotok: Kezdőlap (K), Termékoldal (T), Kosár (C), Kilépett (L)
Egy Markov-lánccal modellezhetjük, hogyan mozog a felhasználó az oldalon. Ebből megérthető, hová érdemes reklámot tenni.
c) Játékmodellek (pl. Monopoly)
A játékos mozgása a táblán egy Markov-láncként modellezhető, ahol a dobókocka valószínűsége határozza meg az átmeneteket.
9. Gyakorlati alkalmazások
- Gépi tanulás: Rejtett Markov-modellek (HMM) hangfelismerésben, nyelvfeldolgozásban.
- Pénzügy: Árak változása (pl. részvények), kockázatelemzés.
- Hálózatelemzés: Google PageRank algoritmusa is egy Markov-láncon alapul.
- Karbantartás: Egy gép működési és hibás állapotait is modellezhetjük így.
- Bioinformatika: DNS-szekvenciák mintázatainak elemzése.
10. Rejtett Markov-modell (HMM – Hidden Markov Model)
Speciális Markov-modell, ahol az állapotokat nem közvetlenül látjuk, csak a hozzájuk kapcsolódó megfigyeléseket. Használatos beszédfelismerésben, szöveganalízisben, genomikában.
11. Markov-lánc Monte Carlo (MCMC)
Egy fontos numerikus módszer, amely Markov-láncokat használ valószínűségi eloszlásokból való mintavételre. Kulcsszerepet játszik a Bayes-statisztikában, gépi tanulásban és fizikai szimulációkban.
12. Összefoglalás
A Markov-lánc egy hatékony eszköz szekvenciális, véletlenszerű rendszerek modellezésére, ahol az aktuális állapot határozza meg a következő lépés valószínűségét. Alkalmas időfüggő döntések, viselkedésmodellek, rendszerek stabilitásának vizsgálatára, és sok területen alkalmazzák az ipartól kezdve a gépi tanulásig.
Főbb tulajdonságai:
- Jövőbeli állapot csak a jelen állapottól függ (Markov-tulajdonság)
- A rendszer állapotváltozásait valószínűségek írják le
- Az állapoteloszlás hosszú távon elérhet stabilitást (stacionárius eloszlás)