A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Teoria das filas. Introdução l Por que aparecem as filas? l Não é eficiente, nem racional, que cada um disponha de todos os recursos individualmente.

Apresentações semelhantes


Apresentação em tema: "Teoria das filas. Introdução l Por que aparecem as filas? l Não é eficiente, nem racional, que cada um disponha de todos os recursos individualmente."— Transcrição da apresentação:

1 Teoria das filas

2 Introdução l Por que aparecem as filas? l Não é eficiente, nem racional, que cada um disponha de todos os recursos individualmente. Por exemplo: 2 que cada pessoa disponha do uso exclusivo de uma rua para se movimentar 2 que cada pessoa tenha um supermercado para o seu abastecimento exclusivo l Recursos limitados devem ser compartilhados.

3 Introdução l Ao compartilhar recursos, pode acontecer que no momento em que se queira fazer uso de um recurso, este esteja ocupado, 2 necessidade de esperar 2 aparecem as filas l Exemplo: nos sistemas de fluxo pode acontecer a formação de filas

4 Sistemas de fluxo l Um fluxo é o movimento de alguma entidade através de um ou mais canais de capacidade finita para ir de um ponto a outro. l Capacidade finita significa que o canal só pode satisfazer a demanda a uma taxa finita. l Exemplos: 2 fluxo de automóveis (entidades) através de uma rede de caminhos (canais) 2 transmissão de mensagens telefônicas (entidades) através da rede (canal)

5 Sistemas de fluxo l Se dividem em duas classes: 2 Determinísticos: sistemas no qual o comportamento da demanda de serviço é totalmente previsível, isto é, a quantidade de demanda é exatamente conhecida sobre o intervalo de interesse. 2 Aleatório: não é possível predizer como vai se comportar a demanda de serviço, por exemplo, o instante de chegada de uma demanda é imprevisível.

6 Sistemas de fluxo l Exemplo de fluxo determinístico: 2 Seja r a taxa de chegada (constante) de pacotes em uma rede de comutação a um buffer. 2 Seja c a taxa (constante) com que esses pacotes são processados em cada nó. 2 Se r > c, o buffer do nó é inundado com pacotes, já que o número de pacotes em espera de serviço crescerá indefinidamente. 2 Se r < c, se tem um fluxo estável, o número de pacotes em espera de serviço é finito.

7 Sistemas de fluxo l Exemplo de fluxo aleatório: 2 Um centro de computação em que as solicitações de impressão podem chegar em instantes imprevisíveis. 2 Quando um trabalho de impressão chega, pode ser que o servidor esteja atendendo outro e seja necessário esperar. 2 Se está desocupado, pode atender imediatamente à nova solicitação de impressão até que esta fique completa.

8 l Representação de uma fila 1 2 m Fila Servidores Chegadas ao sistema Saídas do sistema Teoria das filas

9 l Notação de Kendall para descrever uma fila: A/B/C/K/m/Z

10 l Notação de Kendall para descrever uma fila: A/B/C/K/m/Z distribuição do tempo entre chegadas u Alguns valores de A mais comuns: M: denota distribuição exponencial equivalente (M provém de Markoviano) G: distribuição geral D: representa um tempo fixo (determinístico) Teoria das filas

11 l Notação de Kendall para descrever uma fila: A/B/C/K/m/Z distribuição do tempo entre chegadas distribuição do tempo de serviço u Alguns valores de B mais comuns: M: denota distribuição exponencial equivalente (M provém de Markoviano) G: distribuição geral D: representa um tempo fixo (determinístico) Teoria das filas

12 l Notação de Kendall para descrever uma fila: A/B/C/K/m/Z distribuição do tempo entre chegadas distribuição do tempo de serviço número de servidores Teoria das filas

13 l Notação de Kendall para descrever uma fila: A/B/C/K/m/Z distribuição do tempo entre chegadas distribuição do tempo de serviço número de servidores número máximo de clientes permitidos no sistema u K é omitido quando: K = Teoria das filas

14 l Notação de Kendall para descrever uma fila: A/B/C/K/m/Z distribuição do tempo entre chegadas distribuição do tempo de serviço número de servidores número máximo de clientes permitidos no sistema tamanho da população u m se omite quando: m = Teoria das filas

15 l Notação de Kendall para descrever uma fila: A/B/C/K/m/Z distribuição do tempo entre chegadas distribuição do tempo de serviço número de servidores número máximo de clientes permitidos no sistema tamanho da população disciplina de serviço u Z se omite quando: = FIFO Teoria das filas

16 l Notações usadas nos sistemas de filas: 2 C i : i-ésimo usuário que entra ao sistema. 2 r i : tempo de chegada de C i 2 t i : tempo entre as chegadas de C i-1 e C i (t i = r i - r i-1 ) 2 A(t): distribuição do tempo entre chegadas = P[t i t] 2 x i : tempo de serviço para C i 2 B(x): distribuição do tempo de serviço = P[x i x] 2 w i : tempo de espera na fila de C i 2 se: tempo no sistema (fila mais serviço) de C i (se = w i + x i ) Teoria das filas

17 l Notação de filas em diagrama temporal C i-1 C i C i+1 C i+2 se r i r i+1 r i+2 w i x i x i+1 x i+2 C i C i+1 C i+2 t i+1 t i+2 Tempo Servidor Fila C i C i+1 C i+2 Teoria das filas

18 l Notações usadas nos sistemas de filas (cont.) 2 E k : estado do sistema (normalmente corresponde ao número de usuários no sistema) 2 k taxa média de chegada dos usuários ao sistema, quando este se encontra no estado k 2 k : taxa média de serviço quando o sistema se encontra no estado k Teoria das filas

19 l Outros parâmetros de uma fila: 2 N(t): número de usuários no sistema no instante t 2 L = E[k]: número médio de usuários no sistema (em estado estacionário) 2 LQ: número médio de usuários na fila (em estado estacionário). 2 T = E[s]: tempo médio de permanência de um usuário no sistema = E[k]/ (fórmula de Little) Teoria das filas

20 Cadeias de Markov discretas

21 l Markov estabeleceu uma simples e útil relação entre as variáveis aleatórias que forman processos estocásticos

22 Definições l Estado: se X n = i diz-se que o processo está no estado i no instante n, onde {X n, n=0,1,2...} é um processo estocástico que passa por um número finito ou contável de possíveis estados. l Transição: a transição de um estado a outro depende somente do estado atual, e não da história do processo

23 Observações l No caso das cadeias discretas de Markov, os instantes de tempo nos quais a transição entre um estado e outro acontecem podem asumir apenas valores inteiros 0, 1, 2..., n. Em outras palavras, o tempo é discretizado. l Os processos devem permanecer num estado determinado durante um tempo que deve estar geométricamente distribuído.

24 l Propriedade Markoviana: P{X n+1 = j | X n = i, X n-1 = i n-1,... X 0 = i 0 } =P{X n+1 = j | X n = i} = P ij 0 l Interpretação (sistema sem memória): A transição de um estado para outro só depende do estado atual, e não da história do processo. Observações

25 Cadeias de Markov discretas CuricóRancaguaSantiago Valparaíso Serena t Me leva? X n denota a cidade na qual encontra-se o turista ao meio-dia no dia n... X1X1 X2X2 X3X3 X4X4 X5X5

26 Cadeias de Markov discretas CuricóRancaguaSantiagoValparaísoSerena t Me leva?...

27 Cadeias de Markov discretas CuricóRancaguaSantiagoValparaísoSerena t Me leva?...

28 Cadeias de Markov discretas CuricóRancaguaSantiagoValparaísoSerena t Me leva?...

29 Cadeias de Markov discretas CuricóRancaguaSantiagoValparaísoSerena Continuarei mais ao Norte? t...

30 l Da minha viagem,n posso lhes dizer que: l Nos processos de Markov, o estado atual do sistema e as probabilidades de transição entre os diversos estados caracterizam o comportamento futuro do sistema. l Já que um processo de Markov está num estado determinado, seu comportamento futuro não depende de sua história antes de chegar a esse estado. Cadeias de Markov discretas

31 Definições l Cadeias de Markov são processos estocásticos {X(t)} que satisfazem: l p ij : probabilidade de transição do estado i para o estado j depende somente do estado i l P=[p ij ]: matriz de probabilidade de transição l : tempo em que o processo permanece no estado i, sem memória

32 Santiago Valpo Serena 1/4 3/4 1/4 3/4 1/2 (0) (2) (1) l Considerando-se apenas o trajeto Santiago- Valparaíso-Serena, tem-se graficamente:Exemplo

33 Santiago Valpo Serena 1/4 3/4 1/4 3/4 1/2 (0) (2) (1) Números nos arcos dão a probabilidade p ij do viajante ser recolhido por um carro Probabilidade do viajante permanecer em Serena até o dia seguinte é 1/2 Números entre parênteses usados posteriormente

34 l Matriz de probabilidades de transição: Santiago Valpo Serena 1/4 3/4 1/4 3/4 1/2 (0) (2) (1)

35 1 2 3 Estados 1 e 2 são transientes Definições l Num processo de Markov, se diz que um estado S j é transiente se, de algum estado S k que pode ser alcançado desde S j, o sistema não pode voltar a S j. A probabilidade de não voltar a si mesmo existe.

36 1 2 3 Estados 1, 2 e 3 são recorrentes Definições l Se diz que um estado é recorrente se de cada estado S k alcançável a partir de S j, o sistema pode voltar a S j.

37 Cadeias de Markov discretas l Exemplo 1: predição do tempo l Dois estados possíveis: 0: chuva 1: não chuva l Hipótese: o tempo amanhã só depende de hoje (processo sem memória) l Chove hoje probabilidade de chover amanhã = l Não chove hoje probabilidade de chover amanhã =

38 Graficamente: 0 1 Cadeias de Markov discretas l Cadeia de Markov fica definida por:

39 Andar 3 Andar 2 Andar 1 Estados: E Cadeias de Markov discretas l Exemplo 2: transformar um processo não- Markoviano em Markoviano (às vezes é possível) l Considere-se um elevador em um prédio de três andares:

40 Cadeias de Markov discretas l Processo não-Markoviano, porque no estado 2 é necessária a informação do estado anterior (1 ou 3) para saber qual será a direção do elevador. l Para que o processo seja Markoviano, se faz necessária uma redefinição dos estados.

41 1: Andar 2, sentido acima Redefinição dos estados: E 0: Andar 1, sentido acima 2: Andar 3, sentido abaixo 3: Andar 2, sentido abaixo Cadeias de Markov discretas l Exemplo 2: transformar um processo não- Markoviano em Markoviano (às vezes é possível)

42 : andar 1, sentido acima 1: andar 2, sentido acima 2: andar 3, sentido abaixo 3: andar 2, sentido abaixo 123 Cadeias de Markov discretas l Da redefinição obtém-se o novo diagrama de estados:

43 Cadeias de Markov discretas l Exemplo 2.1: transformar um processo não- Markoviano em Markoviano (às vezes é possível) l Choveu, choveu amanhã choverá: p=0,7 l Não-choveu, choveu amanhã choverá: p=0,5 l Choveu, não choveu amanhã choverá: p=0,4 l Não choveu, não choveu amanhã choverá: p=0,2 l Usando a definição anterior NÃO é processo de Markov l

44 Cadeias de Markov discretas l Exemplo 2.1: transformar um processo não- Markoviano em Markoviano (às vezes é possível) l Motivo: há contradição; precisa-se de informação não só do dia presente, mas também do anterior. l Redefinição de estados: se o estado depende do tempo de ontem e hoje então SIM, pode ser Markoviano l Para transformar um processo não-Markoviano em Markoviano (se possível), devem ser redefinidos os estados de maneira adequada.

45 Cadeias de Markov discretas l Exemplo 2.1: transformar um processo não- Markoviano em Markoviano (às vezes é possível) l Portanto, se são redefinidos os seguintes estados: 0: Choveu, choveu 1: Não choveu, choveu 2: Choveu, não choveu 3: Não choveu, não choveu

46 Cadeias de Markov discretas 0: Choveu, choveu 1: Não choveu, choveu 2: Choveu, não choveu 3: Não choveu, não choveu Estados: Cadeia de Markov definida pela matriz de probabilidade de transição:

47 Definições l i = probabilidade estacionária de estar no estado i l i (n) = probabilidade de estar no estado I no instante n l i (0) = probabilidade inicial de estar no estado i l =( 0, 1, 2, …, n ) l Por definição:

48 l Exemplo: l Aplicando recursivamente: ou Definições

49 Definições l Se a cadeia de Markov é irredutível e ergódica, então: existe e é denominada a probabilidade límite de P, ou autovetor esquerdo de P. l Obtenção de :

50 l Exemplo 3: utilizando o exemplo 1, se a probabilidade de que choverá hoje é 0.2 e Qual é a probabilidade incondicional de que amanhã choverá? Cadeias de Markov discretas

51 Aplicando o teorema da probabilidade total: seja a probabilidade incondicional de que choverá amanhã. = P(amanhã choverá | hoje choveu) + P(amanhã choverá | hoje não choveu) Cadeias de Markov discretas

52 l Exemplo 4: utilizando o exemplo 1 Se e então a probabilidade límite de que choverá é Cadeias de Markov discretas

53 Santiago Valpo Serena 1/4 3/4 1/4 3/4 1/2 (0) (2) (1) Me leva? Cadeias de Markov discretas Voltando ao exemplo do turista:

54 Do diagrama de estados pode obter-se a matriz de probabilidades de transição definindo-se a matriz de probabilidade como: Cadeias de Markov discretas

55 Considerando-se a relação obtém-se que com Cadeias de Markov discretas

56 Resolvendo-se as equações obtém-se as probabilidades em estado de equilíbrio: Cadeias de Markov discretas

57 Cadeias de Markov de tempo contínuo

58 l Definição: uma cadeia de Markov de tempo contínuo é um processo aleatório em que, dado o estado presente, o valor do processo no futuro não depende do passado. l É como uma cadeia de Markov discreta, com a diferença de que o tempo de permanência em um estado é uma variável aleatória com distribuição exponencial.

59 Cadeias de Markov de tempo contínuo l Evolução a partir de um estado: : taxa média de saída do estado i para o estado j : taxa média de saída do estado i para o estado k : probabilidade de transitar do estado i ao estado j, no momento da transição P ij

60 Cadeias de Markov de tempo contínuo l Definição: 2 t ij (t ik ): tempo de permanência no estado i antes de transitar para j (k), caso passe para j(k). t ij e t ik são variáveis aleatórias com distribuição exponencial de parâmetros ij e ik respectivamente. 2 Seja t o tempo de permanência no estado i. Do anterior se deduz que : t = min { t ij, t ik } t se distribui exponencialmente com parâmetro ( ij + ik )

61 Cadeias de Markov de tempo contínuo l Propriedades: 2 O tempo de permanência em um estado é Markoviano (processo sem memória) 2 A escolha do próximo estado se efetua no instante da transição e só depende do estado atual e não do passado, portanto é Markoviano.

62 Cadeias de Markov de tempo contínuo l Dado que o tempo de permanência em qualquer estado e a escolha do próximo estado são Markovianos, então tem-se uma cadeia de Markov de parâmetro contínuo. l As variáveis aleatórias tempo de permanência no estado i e próximo estado visitado são independentes.

63 Cadeias de Markov de tempo contínuo l Definição formal: Um processo aleatório X(t) é uma cadeia de Markov de tempo contínuo se:

64 Cadeias de Markov de tempo contínuo l Exemplo : processo de Poisson l N(t): estado no instante t l N(t): número de chegadas até t j-i chegadas

65 O que é resolver uma cadeia de Markov? l É encontrar as probabilidades de transição de qualquer estado i a qualquer estado j em um dado instante. l Para resolver este problema se utilizará o princípio do balanço global

66 Princípio de balanço global... Definições :

67 Princípio de balanço global k : probabilidade em regime estacionário de estar no estado k Outra interpretação: fração de tempo que o sistema fica no estado k. Definições: Unidade de tempo

68 Princípio de balanço global k (t): probabilidade de estar no estado k no instante t ki : taxa média de transição do estado k para o estado i k· ki : número médio de transições do estado k ao estado i, por unidade de tempo. Definições:

69 Princípio de balanço global... Número médio de entradas de qualquer estado k ao estado i em t número médio de saídas do estado i a qualquer estado j em t

70 Princípio de balanço global Número de entradas totais ao estado i em t : Número de saídas totais desde o estado i em t:

71 Princípio de balanço global l Balanço de fluxos Entradas líquidas médias por unidade de tempo (EN) número médio de entradas totais por unidade de tempo número médio de saídas totais por unidade de tempo = - l Considerando-se o número de entradas líquidas em um intervalo t, se tem que:

72 Princípio de balanço global O número de entradas líquidas em t pode ser interpretado como: Unidade de tempo

73 Princípio de balanço global l Usando-se novamente o balanço de fluxos: (1) Variação do tempo de permanência no estado i, por unidade de tempo número de entradas totais em t número de saídas totais em t = - l Esta variação pode expressar-se em forma da equação de diferenças:

74 Princípio de balanço global Dividindo por t em (1): Tomando-se o limite em (2): (2) (3) Equação de balanço global para o estado i

75 Princípio de balanço global Equação de balanço global para um estado i qualquer: Pode-se reescrever em forma vetorial da seguinte maneira:

76 Princípio de balanço global Definindo-se:

77 Equações de balanço global l O conjunto das equações de balanço global pode expressar-se em forma matricial como: Além disso, sempre: Equações de balanço global

78 l Em estado estacionário se tem que: fluxo de entrada = fluxo de saída Equações de balanço global em estado estacionário

79 Equações de balanço global l Os conjuntos de equações anteriores servem para resolver tanto a situação transiente como estacionária da cadeia de Markov. Isto é, nos permite encontrar as probabilidades de transição de qualquer estado i a qualquer estado j num intervalo t qualquer (P ij (t)).

80 Exemplo: Cadeia de Markov de dois estados Uma máquina funciona uma quantidade de tempo exponencialmente distribuída com média 1/ Quando falha se repara com a mesma distribuição em um tempo médio 1/. Inicialmente, a máquina encontra-se funcionando. l Deseja-se determinar a probabilidade de que a máquina esteja funcionando em um instante t dado. Inicialmente a máquina se encontra operacional.

81 Exemplo: Cadeia de Markov de dois estados Se tem que : Condições iniciais: Em reparo

82 Exemplo: Cadeia de Markov de dois estados l Equações de balanço global estabelecem que: Forma escalar da equação anterior é:

83 Exemplo: Cadeia de Markov de dois estados (4) (5) (6) l Portanto:

84 Exemplo: Cadeia de Markov de dois estados Resolvendo (4), (5) e (6), obtém-se:

85 Exemplo: Cadeia de Markov de dos estados l Resolvendo em estado estacionário, obtém-se: (7) (8) (9)

86 Exemplo: Cadeia de Markov de dois estados l Resolvendo (7), (8) e (9), obtém-se : Também pode chegar-se a este resultado através das equações em estado transiente, fazendo tender o parâmetro t a infinito. Observação:

87 Exemplo: Cadeia de Markov de dois estados =2 =5 =7 0 t Gráfico de 0 com =4

88 Exemplo: Cadeia de Markov de dois estados =2 =5 =7 0 t Gráfico de 0 com =4

89 Exemplo: Cadeia de Markov de dois estados =2 =5 =7 1 t Gráfico de 1 com =4

90 Exemplo: Cadeia de Markov de dois estados =7 =5 =2 1 t Gráfico de 1 com =4

91 Problema 1 l Seja uma cadeia de Markov de três estados como se ilustra na figura: Dado que acontece uma transição do estado 0, determinar a probabilidade de que esta transição seja para o estado

92 Problema 1 l Define-se: 2 t 01 : tempo de permanência no estado 0 antes de transitar para o estado 1, caso transite para o estado 1 2 t 02 : tempo de permanência no estado 0 antes de transitar para o estado 2, caso transite para o estado 2 l A probabilidade pedida é equivalente à probabilidade de que a transição para o estado 1 ocorra antes da transição para o estado 2.

93 Problema 1 l Portanto:

94 Problema 1 l Estendendo o resultado anterior, para qualquer número de estados, se tem que: onde l P ij : probabilidade de transitar do estado i para o estado j, dado que acontece uma transição ik : taxa média de saída do estado i para o estado k

95 Problema 2 l Dado que aconteceu uma transição do estado i, qual é a probabilidade de que o próximo estado seja i ? Além disso: Sabe-se que:

96 Problema 2 l Portanto:

97 Problema 3 l Dado que no instante zero o sistema está no estado i, qual é a probabilidade de permanecer neste estado até o instante t? P{permanecer em estado i até t} = 1 - P{sair do estado i até t} Dado que o tempo de permanência é exponencial: Portanto: P{sair do estado i até t} P{permanecer no estado i até t}


Carregar ppt "Teoria das filas. Introdução l Por que aparecem as filas? l Não é eficiente, nem racional, que cada um disponha de todos os recursos individualmente."

Apresentações semelhantes


Anúncios Google