Uma cadeia de Markov é um modelo para um sistema que passa de um estado para outro passo a passo, como Ensolarado e Chuvoso. A regra principal é que o próximo passo depende apenas do estado atual, se essa for uma suposição razoável para o sistema que você está modelando.
Essas probabilidades de um passo são reunidas em uma matriz de transição. Se o processo está no estado agora e vai para o estado em seguida com probabilidade , então
Para uma cadeia de Markov finita, cada linha de soma , porque o processo precisa ir para um dos estados seguintes permitidos.
O Que Significa a Propriedade de Markov
A ideia formal é
Isso diz que, uma vez conhecido o estado atual , o histórico anterior não altera a probabilidade do próximo passo no modelo.
Essa condição importa. Alguns sistemas reais têm memória, tendências ou efeitos atrasados, então uma cadeia de Markov só é adequada quando “o estado atual basta” é uma aproximação razoável.
Como Ler Uma Matriz de Transição
Suponha que um modelo simples de clima tenha dois estados:
- Ensolarado
- Chuvoso
Use esta matriz de transição:
Leia cada linha como o estado atual e cada coluna como o próximo estado.
Então, se hoje está Ensolarado, o modelo diz que amanhã estará Ensolarado com probabilidade e Chuvoso com probabilidade . Se hoje está Chuvoso, amanhã estará Ensolarado com probabilidade e Chuvoso com probabilidade .
Exemplo Resolvido: Clima ao Longo de Dois Dias
Suponha que a distribuição de hoje seja
Isso significa que o modelo começa em Ensolarado com probabilidade .
A distribuição de amanhã é
Então, após um passo, o modelo dá uma chance de de Ensolarado e uma chance de de Chuvoso.
Depois de mais um passo,
Agora a probabilidade de Ensolarado é e a probabilidade de Chuvoso é .
O ponto principal não é apenas a aritmética. A matriz atualiza toda a distribuição de probabilidades um passo de cada vez, e é por isso que as cadeias de Markov são úteis para processos repetidos.
Onde as Cadeias de Markov São Usadas
As cadeias de Markov são úteis quando um sistema muda em etapas e você quer probabilidades para o que acontece em seguida.
Exemplos comuns incluem modelos de clima, movimento em jogos de tabuleiro, modelos de filas e navegação simplificada na web. Em cada caso, o modelo só ajuda se os estados forem bem escolhidos e as probabilidades de transição forem realistas.
Erros Comuns em Cadeias de Markov
Tratar Qualquer Processo Aleatório Como Markoviano
Um processo não é automaticamente uma cadeia de Markov só porque é aleatório. O modelo exige que o comportamento do próximo passo seja determinado pelo estado atual da forma como você definiu os estados.
Esquecer o Que as Linhas Significam
As pessoas frequentemente confundem linhas e colunas. Você precisa de uma convenção consistente. Nesta página, as linhas são os estados atuais e as colunas são os próximos estados.
Usar Probabilidades Inválidas
Cada entrada deve estar entre e , e cada linha deve somar em uma matriz de transição padrão de uma cadeia de Markov finita.
Supor Que o Modelo Prevê Um Único Futuro Certo
Uma cadeia de Markov normalmente fornece probabilidades, não certeza. Mesmo que um estado seja mais provável, vários estados seguintes ainda podem ser possíveis.
O Comportamento de Longo Prazo Depende da Cadeia
Algumas cadeias de Markov tendem a uma distribuição estável de longo prazo, muitas vezes chamada de distribuição estacionária. Mas isso não acontece em toda cadeia, e os detalhes dependem de propriedades da cadeia, como a forma como os estados se comunicam e se o padrão de movimento é periódico.
Então, tudo bem pensar na multiplicação repetida por como uma forma de estudar o comportamento de longo prazo, mas você não deve supor convergência sem verificar as condições.
Quando Uma Cadeia de Markov É Um Bom Modelo
Use uma cadeia de Markov quando tudo isso for razoavelmente verdadeiro:
- O processo pode ser descrito por um conjunto administrável de estados.
- O tempo avança em passos discretos, ou você escolheu modelá-lo dessa forma.
- As probabilidades do próximo passo são determinadas de maneira significativa pelo estado atual.
Se essas condições falharem, o modelo ainda pode ser uma aproximação grosseira, mas você deve dizer isso explicitamente.
Tente Sua Própria Versão
Monte um modelo com três estados, como demanda Baixa, Média e Alta. Escolha probabilidades nas linhas que somem , escolha uma distribuição inicial e calcule o próximo passo com . Se quiser ir além, tente uma segunda atualização e veja se a distribuição começa a se estabilizar em um padrão.
Precisa de ajuda com um problema?
Envie sua pergunta e receba uma solução verificada, passo a passo, em segundos.
Abrir GPAI Solver →