La catena di Markov

La catena di Markov è una rappresentazione grafica delle relazioni di dipendenza tra le variabili di un sistema. E' anche detta processo di Markov o processo markoviano.

A cosa servono le catene di Markov? Le catene di Markov sono utili per analizzare le relazioni di causa ed effetto tra le variabili e trovare le soluzioni di un problema.

Si chiama così perché è stata usata per la prima volta dal matematico russo Andrei Markov.

Un esempio di catena di Markov

La catena di Markov viene rappresentata come una rete di nodi e archi ( o reye bayesiana ).

una rete di Markov

I nodi identificano le variabili del sistema.

Gli archi, invece, rappresentano la relazione tra due o più variabili.

Ogni arco è caratterizato da una freccia orientata verso la variabile dipendente.

Esempio. Il nodo F è la variabile indipendente ( nodo genitore ) che determina il valore del nodo E. Quest'ultima è la variabile dipendente ( nodo figlio ). A sua volta il nodo E è uno dei genitori del nodo C ( figlio ).

L'ipotesi di Markov

L'ipotesi di Markov è una ipotesi semplificatrice usata per analizzare i modelli dinamici, ossia quei sistemi che evolvono nel corso del tempo.

Secondo l'ipotesi di Markov si assume che ogni variabile di stato è determinata dallo stato precedente.

l'ipotesi di Markov

In altri termini, la variabile O nell'istante t è determinata dal valore della variabile O nell'istante t-1.

La lettera P indica che si tratta di un valore probabilistico ( probabilità condizionata ).

Si tratta di un modello di transizione abbastanza semplice, in cui il valore corrente delle variabili è determinato dalla loro storia passata.

Nota. Si parla di modello di transizione perché i valori degli stati precedenti sono osservabili in modo diretto. Se non fossero osservabili si parlerebbe, invece, di modello sensoriale.

I processi di Markov di primo, secondo e terzo grado

Le relazioni di Markov sono classificate in gradi ( o ordini ).

Ogni grado indica la relazione con lo stato precedente.

Alcuni esempi pratici di catene di Markov

Nel processo di Markov di primo grado la variabile è determinata dallo stato immediatamente precedente (t-1).

un processo di markov di primo ordine ( primo grado )

Nota. Nel processo di Markov di primo grado la previsione del futuro si basa esclusivamente sull'informazione del passato prossimo, lo stadio immediatamente precedente a quello corrente.

Nel processo di Markov di secondo grado, invece, la variabile nell'istante t è determinata dagli ultimi due stati ( t-1 , t-2 ).

il processo di Markov di secondo ordine ( secondo grado )

Nel processo di Markov di terzo grado, infine, la variabile nell'istante t è determinata dagli ultimi tre stati ( t-1, t-2, t-3 ).

la catena di Markov di terzo grado ( terzo ordine )

E così via.

 


 

Segnalami un errore, un refuso o un suggerimento per migliorare gli appunti

FacebookTwitterLinkedinLinkedin
knowledge base

Libri di approfondimento