Lanț Markov

În matematică, un proces Markov, sau un lanț Markov, este un proces stohastic care are proprietatea că, dată fiind starea sa prezentă, stările viitoare sunt independente de cele trecute.[1] Această proprietate se numește proprietatea Markov. Cu alte cuvinte, starea curentă a unui astfel de proces reține toată informația despre întreaga evoluție a procesului. Lanțurile Markov au fost denumite după matematicianul rus Andrei Markov.

Într-un proces Markov, la fiecare moment, sistemul își poate schimba sau păstra starea, în conformitate cu o anumită distribuție de probabilitate. Schimbările de stare sunt numite tranziții. Un exemplu simplu de proces Markov este parcurgerea aleatoare a nodurilor unui graf, tranzițiile fiind trecerea de la un nod la unul din succesorii săi, cu probabilitate egală, indiferent de nodurile parcurse până în acel moment.

Note

  1. ^ Eric Weisstein. „Markov Chain”. MathWorld. Accesat în . 

Bibliografie

  • Marius Iosifescu, Lanțuri Markov finite și aplicații
Control de autoritate
  • BNE: XX540042
  • BNF: cb11932425d (data)
  • GND: 4134948-9
  • LCCN: sh85081369
 Acest articol legat de matematică este deocamdată un ciot. Poți ajuta Wikipedia prin completarea lui.