Una catena di Markov è un modello per un sistema che passa da uno stato all'altro passo dopo passo, come Sole e Pioggia. La regola chiave è che il passo successivo dipende solo dallo stato attuale, se questa è un'ipotesi ragionevole per il sistema che stai modellando.
Queste probabilità a un passo vengono raccolte in una matrice di transizione. Se il processo si trova ora nello stato e passa poi allo stato con probabilità , allora
Per una catena di Markov finita, ogni riga di ha somma pari a perché il processo deve passare a uno degli stati successivi consentiti.
Cosa Significa La Proprietà Di Markov
L'idea formale è
Questo dice che, una volta noto lo stato attuale , la storia precedente non cambia la probabilità del passo successivo nel modello.
Questa condizione è importante. Alcuni sistemi reali hanno memoria, tendenze o effetti ritardati, quindi una catena di Markov è adatta solo quando "lo stato attuale basta" è un'approssimazione ragionevole.
Come Leggere Una Matrice Di Transizione
Supponi che un semplice modello meteorologico abbia due stati:
- Sole
- Pioggia
Usa questa matrice di transizione:
Leggi ogni riga come stato attuale e ogni colonna come stato successivo.
Quindi, se oggi c'è Sole, il modello dice che domani ci sarà Sole con probabilità e Pioggia con probabilità . Se oggi c'è Pioggia, domani ci sarà Sole con probabilità e Pioggia con probabilità .
Esempio Svolto: Il Meteo Su Due Giorni
Supponi che la distribuzione di oggi sia
Questo significa che il modello parte da Sole con probabilità .
La distribuzione di domani è
Quindi, dopo un passo, il modello dà una probabilità dell' di Sole e del di Pioggia.
Dopo un altro passo,
Ora la probabilità di Sole è e la probabilità di Pioggia è .
Il punto non è solo il calcolo. La matrice aggiorna l'intera distribuzione di probabilità un passo alla volta, ed è per questo che le catene di Markov sono utili per i processi ripetuti.
Dove Si Usano Le Catene Di Markov
Le catene di Markov sono utili quando un sistema cambia per fasi e vuoi probabilità su ciò che accade dopo.
Esempi comuni includono modelli meteorologici, movimento nei giochi da tavolo, modelli di code e navigazione web semplificata. In ogni caso, il modello è utile solo se gli stati sono scelti bene e le probabilità di transizione sono realistiche.
Errori Comuni Nelle Catene Di Markov
Trattare Qualsiasi Processo Casuale Come Markoviano
Un processo non è automaticamente una catena di Markov solo perché è casuale. Il modello richiede che il comportamento del passo successivo sia determinato dallo stato attuale nel modo in cui hai definito gli stati.
Dimenticare Cosa Significano Le Righe
Spesso si confondono righe e colonne. Serve una convenzione coerente. In questa pagina, le righe sono gli stati attuali e le colonne sono gli stati successivi.
Usare Probabilità Non Valide
Ogni elemento deve essere compreso tra e , e ogni riga deve avere somma pari a per una matrice di transizione standard di una catena di Markov finita.
Supporre Che Il Modello Preveda Un Solo Futuro Certo
Una catena di Markov di solito fornisce probabilità, non certezze. Anche se uno stato è più probabile, possono comunque essere possibili più stati successivi.
Il Comportamento A Lungo Termine Dipende Dalla Catena
Alcune catene di Markov tendono verso una distribuzione stabile di lungo periodo, spesso chiamata distribuzione stazionaria. Ma questo non accade in ogni catena, e i dettagli dipendono da proprietà della catena, come il modo in cui gli stati comunicano e se il modello di movimento è periodico.
Quindi va bene pensare alla moltiplicazione ripetuta per come a un modo per studiare il comportamento di lungo periodo, ma non dovresti assumere la convergenza senza prima verificare le condizioni.
Quando Una Catena Di Markov È Un Buon Modello
Usa una catena di Markov quando tutte queste condizioni sono ragionevolmente vere:
- Il processo può essere descritto con un insieme gestibile di stati.
- Il tempo procede per passi discreti, oppure hai scelto di modellarlo in questo modo.
- Le probabilità del passo successivo sono determinate in modo significativo dallo stato attuale.
Se queste condizioni non valgono, il modello può comunque essere un'approssimazione grossolana, ma dovresti dirlo esplicitamente.
Prova La Tua Versione
Costruisci un modello a tre stati come domanda Bassa, Media e Alta. Scegli probabilità di riga che abbiano ciascuna somma pari a , scegli una distribuzione iniziale e calcola il passo successivo con . Se vuoi andare oltre, prova un secondo aggiornamento e osserva se la distribuzione inizia a stabilizzarsi secondo uno schema.
Hai bisogno di aiuto con un problema?
Carica la tua domanda e ottieni una soluzione verificata, passo dopo passo, in pochi secondi.
Apri GPAI Solver →