PESQUISA OPERACIONAL II Professor: D. Sc. Edwin B. Mitacc Meza

Slides:



Advertisements
Apresentações semelhantes
Flip-Flops e Dispositivos Correlatos
Advertisements

Lei de Little.
Fluxo em Redes Prof. Ricardo R. Santos.
Sistemas Realimentados
CAPÍTULO 7 TESTE DE HIPÓTESE
ANÁLISE DISCRIMINANTE
Teoria das filas.
Estabilidade de Sistemas de Controle
Teste de Software.
Lógica Fuzzy Aplicada a Sistemas de Diagnóstico
Capítulo 3 - Aplicações das Derivadas
Problemas de Forma Não-padrão
Modelos no Domínio do Tempo de Sistemas LTI Contínuos
Aldilene Silva Célia Regina Daniela Alencar Maria do Socorro
Mutação de Interface Interface Mutation: An Approach for Integration Testing Marcio E. Delamaro José C. Maldonado Aditya P. Mathur.
Medida do Tempo de Execução de um Programa
ANÁLISE DE SÉRIES DE TEMPO
Carolina Fonseca Neumar Ribeiro
3 - Equações Lineares de Segunda Ordem
MATEMÁTICA Prof. Carlos Alexandre.
Teoria da Produção Em cada momento no tempo existe um conjunto de técnicas produtivas, ou tecnologias, que permite produzir determinado produto, a partir.
Programação Linear Universidade Federal de Itajubá – UNIFEI
Teorema do Confronto   Se não pudermos obter o limite diretamente, talvez possamos obtê-lo indiretamente com o teorema do confronto. O teorema se refere.
Teoria dos Grafos Caminhos e Noção de Grafos com pesos
Aula prática 6 Vetores e Matrizes
Análise de modelos matemáticos por meio de simulações computacionais
VALORES ESPERADOS.
Função de uma Variável Aleatória
Custeio Variável Prof. Carlos Alexandre.
DISTRIBUIÇÕES AMOSTRAIS
Lógica Proposicional Caderno de Exercícios.
Aula T06 – BCC202 Análise de Algoritmos (Parte 4) Túlio Toffolo
GEOMETRIA AXIOMÁTICA, SEGMENTOS DE RETA
Modelos de distribuição de erros
MÉTODOS NUMÉRICOS APLICAÇÃO NO MATLAB
Sistema de equações lineares
INTRODUÇÃO À ANÁLISE COMBINATÓRIA
Leis do movimento Professor: Antonio dos Anjos Pinheiro da Silva
Aula 6 - Método não-experimental ou de seleção não-aleatória
UML Diagrama de classes.
Programação Linear Universidade Federal de Itajubá – UNIFEI
Modelagem de Sistemas Dinâmicos
MÚLTIPLOS GRAUS DE LIBERDADE
Estatística Geral (Elementos de Probabilidade)
INE Fundamentos de Matemática Discreta para a Computação
2.3 Experimentos Fatoriais 22 Efeitos das Interações
Campus de Caraguatatuba Aula 16: Sistemas de Equações Lineares (4)
Prof. André Luis Roland Tancredo Engenheiro da Computação e Pesquisador em Desenvolvimento Tecnológico para Semicondutores pelo CNPq Especialista em Microeletrônica.
Fundamentos de linguagens de programação
CES-10 INTRODUÇÃO À COMPUTAÇÃO
Modelagem e Avaliação de Desempenho
Modelos Probabilísticos de Desempenho Profa. Jussara M. Almeida 1º Semestre de 2011.
Algoritmos em Grafos Celso C. Ribeiro Caroline T. Rocha.
Disciplina Engenharia da Qualidade II
DISTRIBUIÇÕES DE PROBABILIDADE
PROCESSO DE POISSON [ Parte II ] 1 - INTRODUÇÃO 2 - PROCESSO DE POISSON 3 - TEMPOS DE CHEGADA 4 - TEMPOS ENTRE CHEGADAS 5 - PROCESSOS DE RENOVAÇÃO 6 -
Metodologia da Pesquisa em Ensino de Ciências I
Algoritmo de Transportes Objecto de Aprendizagem Manuel Pina MarquesDEIG
Pesquisa Operacional:
Estática Estática Histórico
FEATURE SELECTION. Introdução  Estudo de metodologias relacionadas a seleção de atributos  Maldição da dimensionalidade  O número de atributos do desenvolvedor.
Interpolação Polinomial: Introdução; Lagrange.
Sistemas de Controle III N8SC3
Série uniforme PINHEIRO. CARLOS ORGE. Aprenda a usar sua HP12C
GEOMETRIA ANALITICA VETORES.
PESQUISA OPERACIONAL II Professor: D. Sc. Edwin B. Mitacc Meza
Inferência 1:Estimação de Parâmetros Relembrando o Teorema Central do Limite Da aula anterior: a) Os estimadores da média e da s 2 são não viciados e de.
Distribuição de freqüências
Comportamento Assintótico
PC - Semana61 MODELANDO SISTEMAS LTI NO DOMÍNIO DA FREQUÊNCIA.
Transcrição da apresentação:

PESQUISA OPERACIONAL II Professor: D. Sc. Edwin B. Mitacc Meza edwin.professor@gmail.com www.engenharia-puro.com.br/edwin

Cadeias de Markov

Introdução Como foi visto anteriormente, existe uma grande variedade de processos estocásticos. Estes podem ser classificados como Markovianos e não Markovianos. Os processos Markovianos se classificam de acordo ao espaço de estados (ou simplesmente estados) e ao tipo de parâmetro (tempo). Se o espaço de estados é discreto o processo recebe o nome de cadeia de markov, se o espaço de estados é contínuo, se conhece como processo de markov. Segundo o parâmetro temporal, em ambos casos dividem-se em processos ou cadeias de tempo contínuo ou tempo discreto. Nesta parte da disciplina focaremos a cadeia de markov de tempo discreto.

Definição Uma cadeia de Markov é um processo estocástico em que a variável t representa intervalos de tempo, {Xt , t=0, 1, 2, 3, ...}, e que goza da propriedade de Markov, ou seja, a ocorrência de um estado futuro depende somente do estado imediatamente precedente. Isso significa que, dados os tempos cronológicos t0, t1, ..., tn, diz-se que a família de variáveis aleatórias {Xtn}={x0, x1, ..., xn,} é de natureza Markoviana se possuir a seguinte propriedade:

Definição Em uma cadeia Markoviana com n estados (resultados) exaustivos e mutuamente exclusivos, as probabilidades em um ponto especifico do tempo t=0, 1, 2,... são habitualmente expressas por: Isso é conhecido como probabilidade de transição em uma etapa de passar do estado i em t-1 ao estado j em t. Cabe ressaltar que estas probabilidades de transição entre estados são constantes no tempo (cadeia de Markov estacionária).

Representação Uma Cadeia de Markov em tempo discreto fica completamente definida se conhecermos os estados X = {0, 1, 2, …, s} e as probabilidades de transição entre os estados em um período. Existem duas formas de representação: graficamente, através do “diagrama de transições”, ou através da matriz quadrada P que contém as probabilidades de transição em um período. Vamos ver um exemplo.

Representação EXEMPLO: No pequeno país PURO, a bebida tradicional, um estranho licor de flores silvestres, é produzida apenas por duas famílias concorrentes, a família ICT e a família IHS. Cada família introduziu, ao longo das gerações, diferentes alterações na fórmula original, de forma a conferir ao “seu” licor um sabor especial. Embora as fórmulas sejam guardadas no “segredo dos deuses”, descobriu-se que uma porção de pétalas de malmequeres pode realmente “fazer a diferença”, garantindo à família ICT a primazia nas preferências dos PURO’s. De fato, verificou-se que, para cada pessoa que compre o licor ICT há 90% de probabilidade do próximo licor que comprar seja licor ICT; já para cada pessoa que compre o licor IHS há só 80% de probabilidade da essência de miosótis o tornar tão inesquecível que o próximo licor comprado seja ainda o licor IHS. Com base nestes dados, pretende-se construir uma cadeia de Markov que represente a situação descrita.

Vamos representar a cadeia de Markov Representação Se X(t) representar o tipo de licor comprado por uma pessoa na sua t- ésima compra, então a cadeia de Markov limita-se a assumir um dos dois valores seguintes: F (último licor comprado foi o ICT) ou P (último licor comprado foi o IHS). O espaço de estados será, deste modo, X={F,P} Vamos representar a cadeia de Markov

P= Representação – Matriz de Transições Na matriz P, cada linha i representa o estado atual e cada coluna j representa o estado futuro (a ordem dos estados atuais deve ser igual à dos estados futuros, respectivamente, nas linhas e nas colunas de P). Deste modo, o elemento pij da matriz representa a probabilidade de ocorrência da transição do estado i para o estado j em um período. A matriz P é uma matriz estocástica, sendo os seus elementos probabilidades, pij 0, e cada linha i uma distribuição de probabilidade, j pij = 1. (F) (P) (F) 0,90 0,10 0,20 0,80 P= (P)

F P Representação – Diagrama de Transições Num diagrama de transições cada estado é representado por um vértice, e cada arco orientado ligando dois vértices representa uma transição possível entre dois estados em um período, a qual tem uma certa probabilidade de ocorrência (o coeficiente associado ao arco). 0,90 0,80 0,10 F P 0,20

Probabilidades de Transição O conhecimento das probabilidades de transição entre os estados é de grande importância nas cadeias de Markov. Conforme foi referido anteriormente, as probabilidades de transição em um período fazem parte da “definição” da cadeia de Markov. É igualmente importante conhecer as probabilidades de transição em n períodos ou passos. Define-se a probabilidade de transição em n passos como:

Probabilidades de Transição Uma das formas de obter o valor de pij(n) é calcular as probabilidades de cada um dos caminhos que, partindo do estado i, conduzem ao estado j em n passos, e somá-las. Apesar da aparente simplicidade deste método, à medida que n aumenta também aumenta a possibilidade de esquecimento de caminhos alternativos e o cálculo da probabilidade torna-se mais complexo. Alternativamente pode-se calcular o elemento (i,j) da matriz Pn, método bastante mais eficiente. Para demonstrar a equivalência dos dois métodos, voltemos ao exemplo do PURO. Suponhamos que se pretende conhecer a probabilidade de a terceira compra futura de um habitante de PURO ser licor IHS, sabendo que, no momento presente, comprou licor ICT, ou seja, pFP(3).

FP P P FF P P FF F P FP F P Probabilidades de Transição Uma hipótese seria calcular as probabilidades de todas as seqüências de compras, de forma que a transição FP ocorra em três aquisições ou passos. Assim, verifica-se que só há quatro seqüências diferentes de transições em três passos tais que, partindo do estado F, se acaba no estado P. FP P P FF P P FF F P FP F P

Probabilidades de Transição Relembrando que, se A e B forem independentes, P{A e B} = P{A}  P{B}, podemos então calcular a probabilidade de cada seqüência: Do mesmo modo, P{A ou B} = P{A} + P{B}, pelo que

Probabilidades de Transição Houve aqui a aplicação direta das equações de Chapman-Kolmogorov: De fato, assumindo q = 1 e m = 2 aquisições, sendo

Probabilidades de Transição Este resultado pode ser obtido por outra via, pois o elemento da linha que corresponde ao estado F (estado atual) e da coluna que corresponde ao estado P (estado futuro) da matriz P3 é exatamente 0.219. Na verdade, a forma usada para calcular o valor anterior (somar as probabilidades de caminhos alternativos) corresponde exatamente à operação de multiplicação de matrizes que nos conduz a P3, tendo correspondência direta com as equações de Chapman-Kolmogorov.

Classificação dos Estados Um caminho do estado i para o estado j é uma seqüência de transições com probabilidades de ocorrência positivas que ligam os dois estados (do exemplo anterior: FP  F  P). Não existe qualquer limite ao número de transições nem há a obrigação da seqüência ser a mais curta entre os dois estados. Diz-se que o estado j é atingível a partir do estado i se e só se houver pelo menos um caminho de i para j. Dois estados i e j são comunicantes se e só se j for atingível a partir de i e i for atingível a partir de j. Diz-se que uma Cadeia de Markov é irredutível se e só se qualquer estado j for atingível a partir de qualquer estado i, ou seja, se todos os estados forem comunicantes.

1 2 3 Classificação dos Estados Transiente = 0,1 Recorrente = 2,3 Os estados de uma cadeia de Markov podem ser classificados com base na probabilidade de transição pij de P. Um estado j diz-se transiente se existir um estado k que seja atingível a partir de j, mas não sendo j atingível a partir de k. Por outras palavras, se j for transiente não há a garantia de, saindo de j, voltar lá. Um estado j diz-se recorrente se não for transiente, ou seja, se for sempre possível regressar a j. 1 0,40 2 3 0,60 Transiente = 0,1 Recorrente = 2,3

1 2 1 2 Classificação dos Estados Absorvente = 0 Transiente = 1, 2 Um estado j diz-se absorvente se após o processo lá entrar não mais voltar a sair, ou seja, se pjj = 1. Um estado recorrente j diz-se periódico com período k>1 se k for o menor inteiro tal que todos os caminhos de j para j tiverem um comprimento múltiplo de k. 1 0,40 2 0,30 0,70 0,60 Absorvente = 0 Transiente = 1, 2 1 0,30 2 0,70 Periódico = 0, 1, 2

1 Classificação dos Estados Um estado recorrente diz-se aperiódico se k = 1. Uma cadeia de Markov diz-se ergódica se todos os estados forem recorrentes, aperiódicos e comunicantes. 1 0,25 0,75

Probabilidades de Estado Estável ou em Equilíbrio Numa Cadeia de Markov ergódica, decorrido um número muito elevado de períodos de tempo (n), a probabilidade do processo estar no estado j é constante e independente do estado inicial i. Isto pode ser observado através da matriz P16, que contem as probabilidades de transição em dezesseis períodos (exemplo PURO): A esta probabilidade chama-se probabilidade em equilíbrio do estado j e representa-se por j. Por outras palavras,

Probabilidades de Estado Estável ou em Equilíbrio Essas probabilidades podem ser determinadas com base nas equações: (Uma das equações em = P é redundante) O que = P diz é que as probabilidades  permanecem inalteradas após uma transição e, por esta razão, representam a distribuição do estado em equilíbrio. Relembrando o exemplo que nos acompanha desde o início, quais são as probabilidades Estacionárias?

P= Probabilidades de Estado Estável ou em Equilíbrio (F) (P) (F) 0,90 0,10 0,20 0,80 P= (P) Significa que, após bastante tempo, cerca de dois terços das pessoas, em média, comprarão o licor RCT, enquanto que só um terço delas irá comprar o licor RIR. Deste modo as probabilidades de estado estável podem ser usadas como indicadores das quotas de mercado de cada marca e ser muito úteis em processos de tomada de decisão.

Tempo Médio de Recorrência (Tempo Médio do primeiro retorno) Um subproduto direto das probabilidades de estado no equilíbrio (ou probabilidades de estado estável) é a determinação do número esperado de transições antes de os sistemas retornarem a um estado j pela primeira vez. Isto é conhecido como tempo médio de recorrência, e é calculado em uma cadeia de Markov de n estados por:

P= Tempo Médio de Recorrência (Tempo Médio do primeiro retorno) Considerando o exemplo PURO: Probabilidades de Estado Estável (F) (P) P= 0,90 0,10 0,20 0,80 Se o último licor comprado foi RCT, então, levará 1,5 transições para voltar a comprar RCT. Se o último licor comprado foi RIR, então, levará 3 transições para voltar a comprar RIR.

Tempo de Transição (Tempo Médio da primeira passagem) O número esperado de transições necessárias para chegar ao estado j pela primeira vez, partindo do estado i, é chamado tempo de transição. Qualquer que seja a cadeia de Markov, a transição do estado i para o estado j é feita em um período com probabilidade pij, e em todos os outros casos (k≠j) o número esperado de períodos será igual a (1+kj) com probabilidade pik. Então podemos escrever o seguinte sistema de equações:

P= Tempo de Transição (Tempo Médio da primeira passagem) Considerando o exemplo PURO: (F) (P) (F) 0,90 0,10 0,20 0,80 P= (P) FP significa que uma pessoa que compre o licor RCT demora, em média, 10 períodos até passar a comprar licor RIR.

Tempo de Transição (Tempo Médio da primeira passagem) Um modo mais simples de determinar o tempo médio da primeira passagem para todos os estados em uma matriz de m transições P, é usar a seguinte fórmula baseada em matriz: onde, I = Matriz identidade (m-1) Nj = Matriz de transição P menos sua j-ésima linha e sua j-ésima coluna do estado visado j. 1 = vetor coluna (m-1) com todos os elementos iguais a 1.

P= Tempo de Transição (Tempo Médio da primeira passagem) Consideremos a seguinte matriz de transições e calcule os tempos de transição para o estado 1 a partir dos estados 2 e 3. 0,30 0,60 0,10 0,05 0,40 0,55 P=

Análise de Estados Absorventes EXEMPLO: Todo ano no inicio da estação de plantio de mudas (março a setembro), um jardineiro usa um teste químico para verificar a condição do solo. Dependendo do resultado do teste, a produtividade para a nova estação cai em um dos três estados: 1) bom; 2) razoável e 3) ruim. A longo dos anos, o jardineiro observou que a condição do solo no ano anterior causava um impacto sobre a produtividade no ano corrente e que a situação poderia ser descrita pela seguinte cadeia de Markov: estado do sistema no ano seguinte 1 2 3 1 2 3 estado do sistema neste ano

Análise de Estados Absorventes Os estados 1 e 2 (condições do solo boa e razoável) são transientes e o estado 3 (condição do solo ruim) é absorvente porque, uma vez nesse estado, o sistema ali permanecerá indefinidamente. Uma cadeia de Markov pode ter mais de um estado absorvente. Por exemplo, um profissional pode continuar empregado na mesma empresa até se aposentar ou pode sair alguns anos antes (dois estados absorventes) . Nesse tipo de cadeias, estamos interessados em determinar a probabilidade de chegar à absorção e o número esperado de transições até a absorção dado que o sistema começa em um estado transiente especifico.

Análise de Estados Absorventes No exemplo, se a condição atual do solo for boa, estaremos interessados em determinar o número médio de estações de plantio de mudas até o solo tornar-se ruim, e também na probabilidade associada a esta transição. A análise de cadeias de Markov com estados absorventes pode ser executada convenientemente usando matrizes. Em primeiro lugar, a cadeia de Markov é repartida da seguinte maneira: o arranjo requer que todos os estados absorventes ocupem o canto sudeste da nova matriz

Análise de Estados Absorventes Por exemplo, considere a seguinte matriz de transição: A matriz P pode ser rearranjada e repartida como: 1 2 3 4 1 2 3 4 1 3 2 4 1 3 2 4

Análise de Estados Absorventes 1 3 2 4 1 3 2 4 Neste caso, temos:

Análise de Estados Absorventes Com as matrizes definidas anteriormente, podemos mostrar que: Tempo esperado para absorção Probabilidade de absorção

Probabilidades de Transição absolutas Dadas as probabilidades iniciais a(0)={aj(0)} de iniciar no estado j e a matriz de transição P de uma cadeia de Markov, as probabilidades absolutas a(n)={aj(n)} de estar no estado j após n transições (n>0) são calculadas da seguinte maneira: