A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Teoria das Filas e Aplicações Celso C. Ribeiro Reinaldo Vallejos PETROBRAS Novembro 1998.

Apresentações semelhantes


Apresentação em tema: "Teoria das Filas e Aplicações Celso C. Ribeiro Reinaldo Vallejos PETROBRAS Novembro 1998."— Transcrição da apresentação:

1 Teoria das Filas e Aplicações Celso C. Ribeiro Reinaldo Vallejos PETROBRAS Novembro 1998

2 Programa l Teoria da probabilidade l Variáveis aleatórias l Distribuições discretas l Distribuições contínuas l Variáveis aleatórias conjuntas e probabilidade condicional l Teoria das filas l Cadeias de Markov discretas...

3 Programa … l Cadeias de Markov de tempo contínuo l Lei de Little l Aplicações da Lei de Little l Processos de nascimento e morte l Filas M/M/1 l Filas M/M/C l Aplicações

4 Teoria da probabilidade

5 l Modelagem de fenômenos aleatórios 2 quantidades não previsíveis antecipadamente 2 variação inerente que deve ser considerada l Permitir que o modelo tenha natureza probabilística modelo probabilístico

6 Teoria da probabilidade l Experimento cujo resultado não seja previsível antecipadamente l Espaço amostral: S = {resultados possíveis} l Lançamento de uma moeda: S = {cara,coroa} l Lançamento de um dado: S = {1,2,3,4,5,6} l Lançamento de duas moedas: A cara, B coroa S = {(A,A),(A,B),(B,A),(B,B)} l Vida útil de um carro: S = [0, )

7 Teoria da probabilidade l Evento: subconjunto E do espaço amostral S l E = {cara}, E = {coroa} l E = {2,4,6}: resultado do lançamento é par l E = {(A,A),(A,B)}: primeira moeda é cara l E = [1,2): carro dura pelo menos um ano sem completar o segundo

8 Teoria da probabilidade l Eventos E e F l Evento união: E F l Evento interseção: E F l Evento vazio: l E e F mutuamente exclusivos: E F = E ={cara}, F ={coroa}: ou dá cara, ou dá coroa l Evento complementar: E c = S\E

9 Teoria da probabilidade l Espaço S, evento E l Probabilidade P(E) do evento E: 2 0 P(E) 1 2 P(S) = 1 2 E 1 E 2 = P(E 1 E 2 ) = P(E 1 ) + P(E 2 ) l P({cara}) = P({coroa}) = 1/2 l Moeda viciada, com chance duas vezes maior de dar cara: P({cara}) = 2/3, P({coroa}) = 1/3

10 Teoria da probabilidade l P({2,4,6}) = P({2}) + P({4}) + P({6}) = = 1/6 + 1/6 + 1/6 = 1/2

11 Teoria da probabilidade l P(E c ) = 1 - P(E) 1 = P(S) = P(E E c ) = P(E) + P(E c ) l P(E) + P(F) = P(E F) + P(E F) P(E F) = P(E) + P(F) - P(E F) E F = P(E F) = P(E) + P(F) l P(E F G) = P(E) + P(F) + P(G) - P(E F) - - P(E G) - P(F G) + P(E F G) F E E F

12 Teoria da probabilidade l Probabilidade condicional: probabilidade de que um determinado evento ocorra, conhecendo-se a ocorrência de outro l Dois dados são lançados e todas os 36 pares de resultados são equiprováveis. Qual é a probabilidade da soma dos dois valores ser igual a 10? P({4,6}) + P({5,5}) + P({6,4}) = 3 1/36 =1/12

13 Teoria da probabilidade l Sabendo-se que a primeira observação é um 4, qual é a probabilidade da soma dos dois valores ser igual a 10? Resultados possíveis, sendo 4 o primeiro valor: (4,1), (4,2), (4,3), (4,4), (4,5), (4,6) Se o primeiro valor é 4, a probabilidade (condicional) de cada um destes pares é 1/6 Probabilidade dos 30 pares restantes: zero Probabilidade da soma ser igual a 10: 1/6

14 Teoria da probabilidade l Probabilidade condicional do evento E dado que o evento F ocorre: P(E|F) = P(E F)/P(F) F E E F

15 Teoria da probabilidade l Uma moeda é lançada 2 vezes. Qual é a probabilidade condicional de que sejam observadas duas caras, dado que pelo menos uma cara é observada? E = {(cara,cara)} = {(A,A)} cara A F = {(A,B),(B,A),(A,A)} P(E|F) = P(E F)/P(F) = P({(A,A)})/ P({(A,B),(B,A),(A,A)}) = (1/4)/(3/4) = 1/3

16 Teoria da probabilidade l Uma urna contém sete bolas pretas e cinco bolas brancas. Duas bolas são retiradas. Qual a probabilidade de que ambas sejam pretas, considerando-se que a primeira bola não é devolvida para a urna após ser retirada? F = primeira é pretaE = segunda é preta P(E F) = P(E|F) P(F) = 6/11 7/12 = 7/22

17 Teoria da probabilidade l Uma urna contém sete bolas pretas e cinco bolas brancas. Duas bolas são retiradas. Qual a probabilidade de que ambas sejam pretas, considerando-se que, neste caso, a primeira bola é devolvida para a urna após ser retirada? F = primeira é pretaE = segunda é preta P(E F) = P(E|F) P(F) = 7/12 7/12 = 49/144

18 Teoria da probabilidade l Cada uma de três pessoas possui uma ficha de cor diferente que é lançada em uma urna. Em seguida, cada pessoa retira aleatoriamente uma ficha da urna. Qual é a probabilidade de que ninguém recupere sua ficha original? Idéia: calcular a probabilidade do evento complementar, isto é, de que pelo menos uma pessoa recupere sua ficha original.

19 Teoria da probabilidade E i : i-ésima pessoa recupera sua ficha; i=1,2,3 P(E i ) = 1/3, i=1,2,3 P(E i E j ) = P(E j |E i ) P(E i ) = 1/2 1/3 = 1/6 i j P(E 1 E 2 E 3 ) = P(E 3 |E 1 E 2 ) P(E 1 E 2 ) = 1/6 P(E 1 E 2 E 3 ) = P(E 1 ) + P(E 2 ) + P(E 3 ) - - P(E 1 E 2 ) - P(E 1 E 3 ) - P(E 2 E 3 ) + + P(E 1 E 2 E 3 ) = 3 1/ /6 + 1/6 = 2/3 P(ninguém recuperar) = 1 - 2/3 = 1/3

20 Teoria da probabilidade l E e F independentes: P(E F) = P(E) P(F) P(E|F) = P(E) P(F|E) = P(F)

21 Teoria da probabilidade l Espaço amostral S, eventos E e F E = E S = E (F F c ) = (E F) (E F c ) E F e E F c mutuamente exclusivos P(E) = P((E F) (E F c )) = = P(E F) + P(E F c ) = = P(E|F) P(F) + P(E|F c ) P(F c ) = = P(E|F) P(F) + P(E|F c ) (1-P(F c ))

22 Teoria da probabilidade l A primeira de duas urnas contém 2 bolas brancas e 7 bolas pretas, enquanto a segunda contém 5 brancas e 6 pretas. Uma moeda é lançada e uma bola é retirada da primeira ou da segunda urna, dependendo do resultado ter sido cara ou coroa, respectivamente. Qual é a probabilidade (condicional) de ter ocorrido uma cara, dado que a bola retirada foi branca?

23 Teoria da probabilidade Deseja-se calcular P(cara|branca) P(cara|branca) = P(cara e branca) / P(branca) = = P(branca|cara) P(cara) / P(branca) P(branca) = P(branca|cara) P(cara) + + P(branca|coroa) P(coroa) P(cara|branca) = = 2/9 1/2/(2/9 1/2+5/11 1/2) = 22/67

24 Teoria da probabilidade l Um teste detecta com 95% de certeza uma determinada doença, quando ela está presente. Entretanto, este teste aponta falsos positivos em 1% das pessoas que não contraíram a doença. Sabendo-se que 0.5% da população estão contaminados por esta doença, qual é a probabilidade de que determinada pessoa tenha a doença dado que o resultado de seu teste foi positivo?

25 Teoria da probabilidade Deseja-se calcular P(doente|positivo) P(doente|positivo) = P(doente e positivo) / / P(positivo) = = P(positivo|doente) P(doente) / P(positivo) P(positivo) = P(positivo|doente) P(doente) + + P(positivo|sadia) P(sadia) P(doente|positivo) = /( ) = 95/294

26 Teoria da probabilidade l Fórmula de Bayes: eventos F 1, F 2, …, F n mutuamente exclusivos F 1 F 2 … F n = S P(E) = P(E S) = P(E F 1 ) + … + P(E F n ) = = P(E|F 1 ) P(F 1 ) + … + P(E|F n ) P(F n ) P(F j |E) = P(E F j ) / P(E) = P(E|F j ) P(F j ) / P(E) P(F j |E) = P(E|F j ) P(F j ) / / [P(E|F 1 ) P(F 1 ) + … + P(E|F n ) P(F n )]

27 Teoria da probabilidade l Sabe-se que determinada carta está em uma de três pilhas diferentes, com a mesma probabilidade. A probabilidade da carta ser encontrada examinando-se rapidamente a pilha em que ela realmente está é 20%. Suponha que a pilha 1 foi verificada, mas a carta não foi encontrada. Qual a probabilidade da carta efetivamente estar na pilha 1?

28 Teoria da probabilidade F i : carta está na i-ésima pilha; i=1,2,3 E: carta não encontrada na pilha 1 Deseja-se calcular P(F 1 |E) P(F 1 |E) = P(E|F 1 ) P(F 1 ) / / [P(E|F 1 )P(F 1 )+P(E|F 2 )P(F 2 )+P(E|F 3 )P(F 3 )] P(F 1 |E) = 0.8 1/3 / (0.8 1/ / /3)= = 0.8/2.8 = 2/7

29 Variáveis aleatórias

30 l Variável aleatória: função real definida sobre o espaço amostral 2 soma dos valores obtidos após o lançamento de dois dados 2 número de caras após um certo número de lançamentos de uma moeda 2 tempo entre duas chegadas sucessivas a uma fila 2 tempo de processamento de uma tarefa

31 Variáveis aleatórias l Valor de uma variável aleatória (v.a.) é determinado pela saída de um experimento é possível associar probabilidades aos valores que podem ser assumidos por uma l X: v.a. definida pela soma dos valores obtidos após o lançamento de dois dados P{X=1} = P{ } = 0 P{X=2} = P{(1,1)} = 1/36 P{X=3} = P{(1,2),(2,1)} = 2/36 = 1/18...

32 Variáveis aleatórias l Y: v.a. definida pelo número de caras observadas após dois lançamentos de uma moeda P{Y=0} = P{(B,B)} = 1/4 A cara B coroa P{Y=1} = P{(A,B),(B,A)} = 1/2 P{Y=2} = P{(B,B)} = 1/4 P{Y=0} + P{Y=1} + P{Y=2} = 1

33 Variáveis aleatórias l N: v.a. definida pelo número de lançamentos de uma moeda até aparecer a primeira cara, sendo p a probabilidade de observar-se cara em cada lançamento l P{N=1} = P{A} = p P{N=2} = P{(B,A)} = (1-p)p P{N=3} = P{(B,B,A)} = (1-p) 2 p … P{N=n} = P{(B,B,…,B,A)} = (1-p) n-1 p

34 Variáveis aleatórias l Função de distribuição acumulada (fda) ou função de distribuição F(.) da v.a. X: F(b) = P{X b} - < b < + l F(b): probabilidade de que a v.a. X assuma um valor menor ou igual a b l Propriedades: 2 F(b) é uma função não-decrescente de b 2 lim b F(b) = F( ) =1, lim b - F(b) = F(- ) = 0 2 p{a

35 Variáveis aleatórias l Variáveis aleatórias discretas: a v.a. assume um número finito ou contável de valores possíveis. l Variáveis aleatórias contínuas: a v.a. assume valores dentro de um contínuo de valores possíveis.

36 Variáveis aleatórias discretas l Variáveis aleatórias discretas: a v.a. assume um número finito ou contável de valores possíveis. l Função de massa de probabilidade: p(a) = P{X=a} l Se X pode assumir os valores x 1, x 2,… então p(x i ) > 0, i=1,2,… p(x) = 0, outros valores de x

37 l Função de distribuição acumulada: F(a) = p(x i ) l Exemplo: p(1) = 1/2, p(2) = 1/3, p(3) = 1/6 0, a < 1, F(a) = 1/2, 1 a < 2 5/6, 2 a < 3 1, 3 a i=1,2,…: x i a Variáveis aleatórias discretas

38 1 23 a F(a) 1/2 1 5/6

39 Variáveis aleatórias discretas l Seja X uma v.a. discreta. Então, seu valor esperado é dado por:

40 Funções de variáveis aleatórias l g(X) função da v.a. X l Caso discreto: l Caso contínuo: l Exemplo: a,b R E[a.X+b] = a.E[X] + b

41 Funções de variáveis aleatórias l Variância da v.a. X: l Pelo resultado anterior: l Logo,

42 Funções de variáveis aleatórias l Variância da v.a. X:

43 Funções de variáveis aleatórias l X e Y variáveis aleatórias independentes:

44 Distribuições discretas

45 l Um experimento de Bernoulli tem somente dois resultados aleatórios possíveis: 2 sucesso 2 fracasso l A variável aleatória que corresponde ao experimento anterior é uma variável aleatória de Bernoulli. l A notação de uma distribuição de Bernoulli é Be(p), onde 0 p 1 é a probabilidade de obter-se sucesso. Distribuição de Bernoulli

46 l Lançamento de uma moeda 2 Caso obtenha-se uma cara: sucesso 2 Caso obtenha-se uma coroa: fracasso l A direção que segue um veículo em uma bifurcação (caminho A ou B) 2 Se segue o caminho A: sucesso 2 Se segue o caminho B: fracasso (o resultado deste experimento é uma v.a. somente para um observador externo, mas não para o condutor) Distribuição de Bernoulli Exemplos

47 l X v.a. Be(p) (X é uma variável aleatória discreta do experimento de Bernoulli de parâmetro p). l Domínio de X: X {0, 1} l Função de massa de probabilidade: P{X = 0} = P(0) = 1 - p P{X = 1} = P(1) = p Distribuição de Bernoulli Os resultados possíveis deste experimento podem ser mapeados nos números reais, logo:

48 l Função de distribuição acumulada: Distribuição de Bernoulli )X()( 0 xPhxFlim h 1 1,1 )( x1, xp xF 0 l Valor esperado:

49 l Função de distribuição acumulada Distribuição de Bernoulli Gráficos l Função de massa de probabilidade F(X) 1 p 1-p 01X 01X p 1 p(X) E[X] 2 X p Graficos 3D

50 l Considerando as funções anteriores tem-se para Be(p): Distribuição de Bernoulli Parâmetros EXp VARXp1p p1p zp z 11 EXp X n Valor esperado Variância Desvio padrão Função geradora de momento n-ésimo momento

51 l Um pacote de informações é enviado pelo transmissor ao receptor através de uma conexão, sendo p a probabilidade de que o pacote chegue corretamente ao receptor. 2 info chega corretamente a R: X = 1 2 info não chega corretamente a R: X = 0 Distribuição de Bernoulli Exemplo em comunicações TR info

52 Distribuição binomial l Considere n experimentos independentes identicamente distribuídos (iid), cada um com distribuição Bernoulli de parâmetro p. l Se a variável de interesse Y corresponde ao número de sucessos obtidos nestes n experimentos, então Y é conhecida como uma variável aleatória binomial de parâmetros n e p.

53 l Sejam X 1, X 2, …, X n, onde as variáveis {X i }, i=1,2,…,n são v.a.s iid Be(p). Seja a v.a. Y definida por sua soma: Distribuição binomial Y Bi(n, p)

54 Distribuição binomial l Uma distribuição binomial de parâmetros n e p se denota Bi(n,p), onde: 2 n é o número de experimentos de Bernoulli independentes realizados. 2 p é a probabilidade de obter um sucesso em cada um dos n experimentos, 0 p 1.

55 l Uma moeda é lançada n vezes. Se em cada lançamento se obtém cara (sucesso) com probabilidade p, qual é a probabilidade de que em 0 i n experimentos se obtenha sucesso? l Observam-se n veículos em uma bifurcação. Cada veículo segue o caminho A (sucesso) com probabilidade p. Qual é a probabilidade de que 0 i n veículos sigam o caminho A (sucesso)? Distribuição binomial Exemplos

56 l Seja Y v.a. Bi(n,p) (Y é v.a. binomial de parâmetros n e p), onde n N + e 0 p 1 l Domínio de X: Y {0, 1, 2, …, n} l Função de massa de probabilidade: Distribuição binomial l Função de distribuição acumulada: nipp i n iPiYP ini 0, )1()(}{ nip ip j n iYP jn j i j 0, }{ 0

57 l Valor esperado: E[X]= = Seja k=i-1, então E[X]= Como então, E[X]=np Distribuição binomial

58 l Considerando-se as funções anteriores tem-se para Bi(n, p): Distribuição binomial Parâmetros EYnp VARYnp1p 1 p z pz11 EY Y k Valor esperado Variância Desvio padrão Função geradora de momento n-ésimo momento n 1 (k)

59 l Observando-se a esperança e a variância da distribuição binomial se verifica que correspondem à soma de v.a.s iid com distribuição de Bernoulli. l A transformada Z de uma fmp corresponde à sua função geradora de momento: Distribuição binomial

60 2 Y E[Y] Distribuição binomial Gráficos Y = E[Y]=7 Graficos 3D

61 Distribuição binomial Gráficos

62

63

64

65 Graficos 3D

66 l Com relação à fmp de uma binomial tem-se que: 2 valor máximo se encontra em X = E[X] = np 2 estritamente decrescente para X > E[X] 2 simétrica em relação a p (e.g., p = 0.1 e p = 0.9) l Pelo teorema do limite central: 2 a v.a. da soma infinita de experimentos independentes (com qualquer distribuição) tende à distribuição gaussiana Distribuição binomial

67 l n pacotes de informação são enviados pelo transmissor ao receptor através de uma conexão. A probabilidade de cada um dos pacotes chegar corretamente a R é igual a p. Qual é a probabilidade de que 0 i n pacotes de informação enviados cheguem corretamente ao receptor? Distribuição binomial Exemplo em comunicações TR infoninfo2info1...

68 n: número de pacotes enviados p: probabilidade de cada pacote chegar corretamente Y = i: número de pacotes enviados que chegarão corretamente, 0 i n Y v.a. ~ Bi(n,p), n {0,1,2,3,...} Distribuição binomial Exemplo em comunicações TR infoninfo2info1... nipp i n iPiYP ini 0, )1()(}{

69 l Vários computadores executam um mesmo algoritmo. O resultado final do algoritmo se determina por votação dos computadores, por maioria simples. Por exemplo, se o resultado de dois ou mais computadores coincide, então esse é o resultado final. Cada computador tem probabilidade de falha igual a 1-p. Para que valores de p convém escolher 1, 3 ou 5 computadores? Distribuição binomial Exemplo em tolerância a falhas

70 n: número total de computadores X: número de computadores funcionando corretamente (fornecem o resultado correto) X v.a. ~ Bi(n,p), n {1,3,5} Por exemplo: probabilidade de sucesso do sistema com n computadores (maioria proporciona o resultado correto) m = ((n-1)/2)+1: número mínimo de computadores (n ímpar) que devem dar o resultado correto para o sistema ter sucesso Distribuição binomial Exemplo em tolerância a falhas

71 Para n {1,3,5}: Caso n = 1 Caso n = 3 Caso n = 5 Distribuição binomial Exemplo em tolerância a falhas

72 Probabilidade de sucesso

73 Distribuição geométrica l Considere n experimentos de Bernoulli independentes, cada um com probabilidade de êxito p l X v.a. Ge(p) representando o número de tentativas até conseguir o primeiro êxito l Função de massa de probabilidade: l Função de distribuição:

74 l Valor esperado: E[X]= Fazendo q = 1 - p: E[X] = = = = = Logo, E[X]= Distribuição geométrica

75 l Exemplo: lançar a moeda até o primeiro êxito 2 Êxito = cara Fracasso = coroa l Exemplo: número de automóveis não específicos até que um siga o caminho A da bifurcação 2 Êxito = A Fracasso = B Experimentos independentes

76 Distribuição geométrica F(n) n Função de distribuição Função de massa de probabilidade p=0.6 n F(n) Função de distribuição Função de massa de probabilidade p=0.2

77 Distribuição geométrica p(n) n E[X] E[X]=3,33 x =2.79

78 Distribuição geométrica 0,8 0, n p(n)

79 Distribuição geométrica

80 n p P{X=n}

81 Distribuição geométrica l P{X=n} decai mais rápidamente com n quando p aumenta l Distribuição em função de p varia com n: 2 para n = 1 é una reta crescente 2 para n < 7 é crescente e logo decresce 2 para n 7 é decrescente l Função de massa tem dois pontos degenerados: 2 p = 0: necessárias infinitas tentativas (nunca se consegue êxito) 2 p = 1: êxito sempre é conseguido na primeira tentativa.

82 Distribuição geométrica Parâmetros

83 Propriedade: falta de memória l Elevador em um prédio de três andares l Estado #n : elevador no andar n Sem memória: estados #1 e #3 Com memória: estado #2

84 Propriedade: falta de memória l Exemplo relacionado com a distribuição geométrica, duas situações equivalentes:

85 Propriedade: falta de memória l Distribuição geométrica caracterizada pela seguinte propriedade: l A informação de nenhum sucesso até a tentativa t é esquecida nos cálculos subseqüentes.

86 Propriedade: falta de memória

87 l Demonstração: Logo, l

88 Propriedade: falta de memória Substituindo-se Logo, com portanto | propriedade de falta de memória

89 Protocolo Stop & Wait l Protocolo de retransmissão mais simples l Idéia básica: ter certeza de que cada pacote transmitido é recebido corretamente antes de transmitir o seguinte l Protocolo half-duplex l Retransmissão devido a: 2 erro na recepção do pacote 2 time-out

90 Protocolo Stop & Wait l Numeração de pacotes: 2 Se ocorre time-out no transmissor, retransmite pacote i 2 Receptor não sabe distinguir se é uma retransmissão do pacote i ou uma primeira transmissão do pacote i+1 2 Logo, necessidade de numerar os pacotes, assim como os acks/nacks 2 Numeração módulo 2 é suficiente

91 Esquema físico l Definições: ti = tempo de transmissão de um pacote tp = tempo de propagação tout= tempo máximo de espera de um reconhecimento (ack/nack) tproc= tempo de processamento do pacote

92 Diagrama temporal t Tx Rx Caso 2 Retransmissão por erro t i t p Tx Rx t i t p t out t t t F1 N1 F1 A1 F2 t proc Tx F1 A1 F2 t proc Tx Caso 1 Retransmissão por time-out t proc Rx t Fi = transmissão do frame i Ni = mensagem de frame i recebida com problemas Ai = reconhecimento do frame i

93 Diagrama de transição de estados TransmissorReceptor Q0: Transmite Mensagem 0 Q1: Espera Ack 0 Q2: Transmite Mensagem 1 Q3: Espera Ack 1 Q0: Espera Mensagem 0 Q1: Transmite Ack 0 Q2: Transmite Erro Q3: Espera Mensagem 1 Q4: Transmite Ack 1 Q5: Transmite Erro + : Entradas - : Saídas

94 Tabelas de transição de estados Q0: Transmite Mensagem 0 Q1: Espera Ack 0 Q2: Transmite Mensagem 1 Q3: Espera Ack 1 Q0: Espera Mensagem 0 Q1: Transmite Ack 0 Q2: Transmite Erro Q3: Espera Mensagem 1 Q4: Transmite Ack 1 Q5: Transmite Erro

95 Medidas de desempenho l Desempenho pode ser avaliado sob dois pontos de vista: 2 do usuário: 2 menor tempo de resposta 2 menor buffer 2 do sistema: 2 máximo throughput 2 menor memória

96 Máximo throughput l Transmissor sempre dispõe de pacotes para transmitir l Time-out é o menor possível Tout = 2Tp + Tack l Existem erros Pe > 0 existem retransmissões

97 Definições: Ii = i-ésima tentativa de transmitir o pacote t T = ti + tout = ciclo de operação p= probabilidade de receber o pacote com erro n= número de tentativas até transmitir um pacote pa= probabilidade de transmissão correta na n-ésima tentativa tu= tempo utilizado nas n tentativas E[t] = tempo médio de recepção com sucesso (1)

98 Diagrama de lógica temporal F1 1-p ppp Errado Correto t p: probabilidade de erro no pacote

99 Máximo throughput Certamente, Por definição de valor médio Da figura anterior: Como n é uma v.a. com distribuição Ge(1-p):

100 Máximo throughput Substituindo-se (2), (3) e (4) em (1), obtém-se: Simplificando (4): Por definição: com

101 Throughput normalizado 0 0 p 1 - p ppp T T Transmissão efetiva

102 Máximo throughput l O throughput normalizado pode ser interpretado como a percentagem do tempo ocupado na transmissão efetiva de pacotes l Se o tempo para receber um ack ou um nack é desprezível, também o é o time-out: a = 1 = (1- p)

103 a=1 : Rede da área local a=3 : Rede com enlaces menores a 500 Km a=10 : Rede de enlace satelital a p max =F(p,a)

104 a=1,8 a=2,1 a=1,4 a=1

105 max =F(p,a) p=0 p=0.2 p=0.4 p=0.6

106 Distribuição de Poisson X v.a. discreta com domínio e com a seguinte função de massa de probabilidade: X: distribuição de Poisson com parâmetro Função de distribuição de probabilidade:

107 Distribuição de Poisson Função de massa de probabilidade Função de massa de probabilidade

108 Distribuição de Poisson Função de distribuição de probabilidade Função de distribuição de probabilidade

109 Distribuição de Poisson Fn. de distribuição Fn. de massa = 20

110 Distribuição de Poisson Função de massa de probabilidade

111 l Valor esperado: E[X] = = Fazendo k = i - 1: E[X] = Como E[X] = Distribuição de Poisson

112 Distribuição de Poisson Parâmetros E[X Var[X x (t) e (e) t 1

113 Processo de contagem l Processo estocástico {N(t), t 0} é de contagem se N(t) representa o número total de eventos que ocorrem entre (0,t] l Por definição, N(t) satisfaz: 2 N(t) 0 2 N(t) assume valores inteiros 2 s < t N(s) N(t) 2 s < t N(t) - N(s) = número de eventos durante o intervalo (s,t]

114 Processo de contagem l Número de pessoas que entraram em um supermercado no intervalo de tempo (0,t] l Número de veículos que entraram em um túnel num intervalo dado l Número de gols que um determinado jogador fez num determinado intervalo (0,t]

115 Processo de contagem l Incrementos independentes: processo de contagem no qual o número de eventos ocorridos em intervalos de tempos disjuntos são independentes l Exemplo: o processo de contagem no intervalo (5,10] não depende do processo de contagem em (0,5]

116 Processo de contagem Incrementos independentes l Número de pessoas que entraram em um supermercado num intervalo de tempo Incrementos não-independentes l Número de nascimentos num intervalo de tempo, quando existe controle da natalidade

117 Processo de contagem l Incrementos estacionários: número de eventos em (t1+s,t2+s] depende somente da amplitude do intervalo (t2-t1) l Ou seja, N(t2+s)-N(t1+s) tem a mesma distribuição que N(t2)-N(t1), onde t2 > t1 e s > 0 0t1t2s+t1s+t2

118 Processo de contagem Incrementos não-estacionários l A quantidade de ligações telefônicas é maior em determinadas horas do dia Incrementos estacionários l Número de veículos que entram em um túnel num ano

119 Processo de Poisson l N(t) é um processo de Poisson se: 2 N(t) é um processo de contagem 2 N(0) = 0 (reset) 2 Tem incrementos independentes e estacionários Número de eventos em qualquer intervalo de amplitude t é distribuído como uma variável de Poisson com média t, ou seja:

120 Processo de Poisson l A última condição implica em incrementos estacionários N(t) não se refere apenas a uma variável aleatória com uma distribuição de Poisson, mas sim que para cada t > 0 se tem uma v.a. com uma distribuição de Poisson de parâmetro t (dependente de t) l Esta coleção (infinita) de variáveis aleatórias é conhecida como um processo de Poisson

121 Processo de Poisson Tempo entre chegadas 0 t 1 t 2 t 3 · · · t n-1 t n T 1 T 2 T 3 · · · T n Eventos (contagem do P.P.) Conjunto de v.a.s com distribuição Exp( ) Seqüência {T n, n=1,2,...}, onde T n representa o tempo entre o evento (chegada) n e o evento n-1

122 Processo de Poisson Tempo entre chegadas l Evento {T 1 > t } significa que não aconteceu chegada alguma do processo de Poisson no intervalo (0,t] P{T 1 > t} = P{N(t) = 0} = e - t l Além disso, P{T 2 >t | T 1 =s} = P{0 eventos em (s,s+t]} = e - t l Repetindo-se o experimento, conclui-se que T n, n=1,2,... são v.a. exponenciais independentes e identicamente distribuídas


Carregar ppt "Teoria das Filas e Aplicações Celso C. Ribeiro Reinaldo Vallejos PETROBRAS Novembro 1998."

Apresentações semelhantes


Anúncios Google