A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Teoria das Filas e Aplicações

Apresentações semelhantes


Apresentação em tema: "Teoria das Filas e Aplicações"— Transcrição da apresentação:

1 Teoria das Filas e Aplicações
Celso C. Ribeiro Reinaldo Vallejos PETROBRAS Novembro 1998

2 Programa Teoria da probabilidade Variáveis aleatórias
Distribuições discretas Distribuições contínuas Variáveis aleatórias conjuntas e probabilidade condicional Teoria das filas Cadeias de Markov discretas ...

3 Programa … Cadeias de Markov de tempo contínuo Lei de Little
Aplicações da Lei de Little Processos de nascimento e morte Filas M/M/1 Filas M/M/C Aplicações

4 Teoria da probabilidade

5 Teoria da probabilidade
Modelagem de fenômenos aleatórios quantidades não previsíveis antecipadamente variação inerente que deve ser considerada Permitir que o modelo tenha natureza probabilística  modelo probabilístico

6 Teoria da probabilidade
Experimento cujo resultado não seja previsível antecipadamente Espaço amostral: S = {resultados possíveis} Lançamento de uma moeda: S = {cara,coroa} Lançamento de um dado: S = {1,2,3,4,5,6} Lançamento de duas moedas: Acara, Bcoroa S = {(A,A),(A,B),(B,A),(B,B)} Vida útil de um carro: S = [0,)

7 Teoria da probabilidade
Evento: subconjunto E do espaço amostral S E = {cara}, E = {coroa} E = {2,4,6}: resultado do lançamento é par E = {(A,A),(A,B)}: primeira moeda é cara E = [1,2): carro dura pelo menos um ano sem completar o segundo

8 Teoria da probabilidade
Eventos E e F Evento união: EF Evento interseção: EF Evento vazio:  E e F mutuamente exclusivos: EF =  E ={cara}, F ={coroa}: ou dá cara, ou dá coroa Evento complementar: Ec = S\E

9 Teoria da probabilidade
Espaço S, evento E Probabilidade P(E) do evento E: 0  P(E)  1 P(S) = 1 E1E2 =   P(E1E2) = P(E1) + P(E2) P({cara}) = P({coroa}) = 1/2 Moeda viciada, com chance duas vezes maior de dar cara: P({cara}) = 2/3, P({coroa}) = 1/3

10 Teoria da probabilidade
P({2,4,6}) = P({2}) + P({4}) + P({6}) = = 1/6 + 1/6 + 1/6 = 1/2

11 Teoria da probabilidade
P(Ec) = 1 - P(E) 1 = P(S) = P(EEc) = P(E) + P(Ec) P(E) + P(F) = P(EF) + P(EF) P(EF) = P(E) + P(F) - P(EF) EF =   P(EF) = P(E) + P(F) P(EFG) = P(E) + P(F) + P(G) - P(EF) P(EG) - P(FG) + P(EFG) F E EF EF

12 Teoria da probabilidade
Probabilidade condicional: probabilidade de que um determinado evento ocorra, conhecendo-se a ocorrência de outro Dois dados são lançados e todas os 36 pares de resultados são equiprováveis. Qual é a probabilidade da soma dos dois valores ser igual a 10? P({4,6}) + P({5,5}) + P({6,4}) = 31/36 =1/12

13 Teoria da probabilidade
Sabendo-se que a primeira observação é um 4, qual é a probabilidade da soma dos dois valores ser igual a 10? Resultados possíveis, sendo 4 o primeiro valor: (4,1), (4,2), (4,3), (4,4), (4,5), (4,6) Se o primeiro valor é 4, a probabilidade (condicional) de cada um destes pares é 1/6 Probabilidade dos 30 pares restantes: zero Probabilidade da soma ser igual a 10: 1/6

14 Teoria da probabilidade
Probabilidade condicional do evento E dado que o evento F ocorre: P(E|F) = P(EF)/P(F) F E EF

15 Teoria da probabilidade
Uma moeda é lançada 2 vezes. Qual é a probabilidade condicional de que sejam observadas duas caras, dado que pelo menos uma cara é observada? E = {(cara,cara)} = {(A,A)} cara  A F = {(A,B),(B,A),(A,A)} P(E|F) = P(EF)/P(F) = P({(A,A)})/ P({(A,B),(B,A),(A,A)}) = (1/4)/(3/4) = 1/3

16 Teoria da probabilidade
Uma urna contém sete bolas pretas e cinco bolas brancas. Duas bolas são retiradas. Qual a probabilidade de que ambas sejam pretas, considerando-se que a primeira bola não é devolvida para a urna após ser retirada? F = primeira é preta E = segunda é preta P(EF) = P(E|F) P(F) = 6/117/12 = 7/22

17 Teoria da probabilidade
Uma urna contém sete bolas pretas e cinco bolas brancas. Duas bolas são retiradas. Qual a probabilidade de que ambas sejam pretas, considerando-se que, neste caso, a primeira bola é devolvida para a urna após ser retirada? F = primeira é preta E = segunda é preta P(EF) = P(E|F) P(F) = 7/127/12 = 49/144

18 Teoria da probabilidade
Cada uma de três pessoas possui uma ficha de cor diferente que é lançada em uma urna. Em seguida, cada pessoa retira aleatoriamente uma ficha da urna. Qual é a probabilidade de que ninguém recupere sua ficha original? Idéia: calcular a probabilidade do evento complementar, isto é, de que pelo menos uma pessoa recupere sua ficha original.

19 Teoria da probabilidade
Ei: i-ésima pessoa recupera sua ficha; i=1,2,3 P(Ei) = 1/3, i=1,2,3 P(EiEj) = P(Ej|Ei) P(Ei) = 1/21/3 = 1/6 ij P(E1E2E3) = P(E3|E1E2) P(E1E2) = 1/6 P(E1E2E3) = P(E1) + P(E2) + P(E3) P(E1E2) - P(E1E3) - P(E2E3) P(E1E2E3) = 3  1/3 - 3  1/6 + 1/6 = 2/3 P(ninguém recuperar) = 1 - 2/3 = 1/3

20 Teoria da probabilidade
E e F independentes: P(EF) = P(E) P(F)  P(E|F) = P(E)  P(F|E) = P(F)

21 Teoria da probabilidade
Espaço amostral S, eventos E e F E = ES = E(FFc) = (EF)  (EFc) EF e EFc mutuamente exclusivos P(E) = P((EF)(EFc)) = = P(EF) + P(EFc) = = P(E|F) P(F) + P(E|Fc) P(Fc) = = P(E|F) P(F) + P(E|Fc) (1-P(Fc))

22 Teoria da probabilidade
A primeira de duas urnas contém 2 bolas brancas e 7 bolas pretas, enquanto a segunda contém 5 brancas e 6 pretas. Uma moeda é lançada e uma bola é retirada da primeira ou da segunda urna, dependendo do resultado ter sido cara ou coroa, respectivamente. Qual é a probabilidade (condicional) de ter ocorrido uma cara, dado que a bola retirada foi branca?

23 Teoria da probabilidade
Deseja-se calcular P(cara|branca) P(cara|branca) = P(cara e branca) / P(branca) = = P(branca|cara)  P(cara) / P(branca) P(branca) = P(branca|cara)  P(cara) P(branca|coroa)  P(coroa) P(cara|branca) = = 2/91/2/(2/91/2+5/111/2) = 22/67

24 Teoria da probabilidade
Um teste detecta com 95% de certeza uma determinada doença, quando ela está presente. Entretanto, este teste aponta “falsos positivos” em 1% das pessoas que não contraíram a doença. Sabendo-se que 0.5% da população estão contaminados por esta doença, qual é a probabilidade de que determinada pessoa tenha a doença dado que o resultado de seu teste foi positivo?

25 Teoria da probabilidade
Deseja-se calcular P(doente|positivo) P(doente|positivo) = P(doente e positivo) / / P(positivo) = = P(positivo|doente)  P(doente) / P(positivo) P(positivo) = P(positivo|doente)  P(doente) P(positivo|sadia)  P(sadia) P(doente|positivo) = 0.05/(0.95 0.995) = 95/294

26 Teoria da probabilidade
Fórmula de Bayes: eventos F1, F2, …, Fn mutuamente exclusivos F1  F2  …  Fn= S P(E) = P(ES) = P(EF1) + … + P(EFn) = = P(E|F1) P(F1) + … + P(E|Fn) P(Fn) P(Fj|E) = P(EFj) / P(E) = P(E|Fj) P(Fj) / P(E) P(Fj|E) = P(E|Fj) P(Fj) / / [P(E|F1) P(F1) + … + P(E|Fn) P(Fn)]

27 Teoria da probabilidade
Sabe-se que determinada carta está em uma de três pilhas diferentes, com a mesma probabilidade. A probabilidade da carta ser encontrada examinando-se rapidamente a pilha em que ela realmente está é 20%. Suponha que a pilha 1 foi verificada, mas a carta não foi encontrada. Qual a probabilidade da carta efetivamente estar na pilha 1?

28 Teoria da probabilidade
Fi: carta está na i-ésima pilha; i=1,2,3 E: carta não encontrada na pilha 1 Deseja-se calcular P(F1|E) P(F1|E) = P(E|F1) P(F1) / / [P(E|F1)P(F1)+P(E|F2)P(F2)+P(E|F3)P(F3)] P(F1|E) = 0.81/3 / (0.81/3 + 11/3 + 11/3)= = 0.8/2.8 = 2/7

29 Variáveis aleatórias

30 Variáveis aleatórias Variável aleatória: função real definida sobre o espaço amostral soma dos valores obtidos após o lançamento de dois dados número de caras após um certo número de lançamentos de uma moeda tempo entre duas chegadas sucessivas a uma fila tempo de processamento de uma tarefa

31 Variáveis aleatórias Valor de uma variável aleatória (v.a.) é determinado pela saída de um experimento  é possível associar probabilidades aos valores que podem ser assumidos por uma X: v.a. definida pela soma dos valores obtidos após o lançamento de dois dados P{X=1} = P{} = 0 P{X=2} = P{(1,1)} = 1/36 P{X=3} = P{(1,2),(2,1)} = 2/36 = 1/18 ...

32 Variáveis aleatórias Y: v.a. definida pelo número de caras observadas após dois lançamentos de uma moeda P{Y=0} = P{(B,B)} = 1/4 Acara Bcoroa P{Y=1} = P{(A,B),(B,A)} = 1/2 P{Y=2} = P{(B,B)} = 1/4 P{Y=0} + P{Y=1} + P{Y=2} = 1

33 Variáveis aleatórias N: v.a. definida pelo número de lançamentos de uma moeda até aparecer a primeira cara, sendo p a probabilidade de observar-se cara em cada lançamento P{N=1} = P{A} = p P{N=2} = P{(B,A)} = (1-p)p P{N=3} = P{(B,B,A)} = (1-p)2p P{N=n} = P{(B,B,…,B,A)} = (1-p)n-1p

34 Variáveis aleatórias Função de distribuição acumulada (fda) ou função de distribuição F(.) da v.a. X: F(b) = P{X  b}  < b < + F(b): probabilidade de que a v.a. X assuma um valor menor ou igual a b Propriedades: F(b) é uma função não-decrescente de b limbF(b) = F() =1, limb-F(b) = F(-) = 0 p{a<Xb} = P{Xb} - P{Xa} = F(b) - F(a)

35 Variáveis aleatórias Variáveis aleatórias discretas: a v.a. assume um número finito ou contável de valores possíveis. Variáveis aleatórias contínuas: a v.a. assume valores dentro de um contínuo de valores possíveis.

36 Variáveis aleatórias discretas
Variáveis aleatórias discretas: a v.a. assume um número finito ou contável de valores possíveis. Função de massa de probabilidade: p(a) = P{X=a} Se X pode assumir os valores x1, x2,… então p(xi) > 0, i=1,2,… p(x) = 0, outros valores de x

37 Variáveis aleatórias discretas
Função de distribuição acumulada: F(a) =  p(xi) Exemplo: p(1) = 1/2, p(2) = 1/3, p(3) = 1/ , a < 1, F(a) = 1/2, 1  a < /6, 2  a < , 3  a i=1,2,…: xi  a

38 Variáveis aleatórias discretas
F(a) 1 5/6 1/2 a 1 2 3

39 Variáveis aleatórias discretas
Seja X uma v.a. discreta. Então, seu valor esperado é dado por:

40 Funções de variáveis aleatórias
g(X) função da v.a. X Caso discreto: Caso contínuo: Exemplo: a,b  R E[a.X+b] = a.E[X] + b

41 Funções de variáveis aleatórias
Variância da v.a. X: Pelo resultado anterior: Logo,

42 Funções de variáveis aleatórias
Variância da v.a. X:

43 Funções de variáveis aleatórias
X e Y variáveis aleatórias independentes:

44 Distribuições discretas

45 Distribuição de Bernoulli
Um experimento de Bernoulli tem somente dois resultados aleatórios possíveis: sucesso fracasso A variável aleatória que corresponde ao experimento anterior é uma variável aleatória de Bernoulli. A notação de uma distribuição de Bernoulli é Be(p), onde 0  p  1 é a probabilidade de obter-se sucesso.

46 Distribuição de Bernoulli Exemplos
Lançamento de uma moeda Caso obtenha-se uma cara: sucesso Caso obtenha-se uma coroa: fracasso A direção que segue um veículo em uma bifurcação (caminho A ou B) Se segue o caminho A: sucesso Se segue o caminho B: fracasso (o resultado deste experimento é uma v.a. somente para um observador externo, mas não para o condutor)

47 Distribuição de Bernoulli
Os resultados possíveis deste experimento podem ser “mapeados” nos números reais, logo: X v.a.  Be(p) (X é uma variável aleatória discreta do experimento de Bernoulli de parâmetro p). Domínio de X: X  {0, 1} Função de massa de probabilidade: P{X = 0} = P(0) = 1 - p P{X = 1} = P(1) = p

48 Distribuição de Bernoulli
Função de distribuição acumulada: ) X ( x P h F lim < = - + î í ì < - = 1 , ) ( x 1, p F Valor esperado:

49 Distribuição de Bernoulli Gráficos
Função de massa de probabilidade p(X) 1 p 1-p p 1 X E[X] 2 s X Função de distribuição acumulada F(X) 1 p 1-p X Graficos 3D

50 Distribuição de Bernoulli Parâmetros
Considerando as funções anteriores tem-se para Be(p): [ ] ( ) E X p VAR 1 z n - + s f Valor esperado Variância Desvio padrão Função geradora de momento n-ésimo momento

51 Distribuição de Bernoulli Exemplo em comunicações
info T R Um pacote de informações é enviado pelo transmissor ao receptor através de uma conexão, sendo p a probabilidade de que o pacote chegue corretamente ao receptor. info chega corretamente a R: X = 1 info não chega corretamente a R: X = 0

52 Distribuição binomial
Considere n experimentos independentes identicamente distribuídos (iid), cada um com distribuição Bernoulli de parâmetro p. Se a variável de interesse Y corresponde ao número de sucessos obtidos nestes n experimentos, então Y é conhecida como uma variável aleatória binomial de parâmetros n e p.

53 Distribuição binomial
Sejam X1, X2, …, Xn, onde as variáveis {Xi}, i=1,2,…,n são v.a.’s iid Be(p). Seja a v.a. Y definida por sua soma: Y  Bi(n, p)

54 Distribuição binomial
Uma distribuição binomial de parâmetros n e p se denota Bi(n,p), onde: n é o número de experimentos de Bernoulli independentes realizados. p é a probabilidade de obter um sucesso em cada um dos n experimentos, 0  p  1.

55 Distribuição binomial Exemplos
Uma moeda é lançada n vezes. Se em cada lançamento se obtém cara (sucesso) com probabilidade p, qual é a probabilidade de que em 0  i  n experimentos se obtenha sucesso? Observam-se n veículos em uma bifurcação. Cada veículo segue o caminho A (sucesso) com probabilidade p. Qual é a probabilidade de que 0  i  n veículos sigam o caminho A (sucesso)?

56 Distribuição binomial
Seja Y v.a.  Bi(n,p) (Y é v.a. binomial de parâmetros n e p), onde n  N+ e 0  p  1 Domínio de X: Y  {0, 1, 2, …, n} Função de massa de probabilidade: n i p P Y - ÷ ø ö ç è æ = , ) 1 ( } { Função de distribuição acumulada: ( ) n i p j Y P - ÷ ø ö ç è æ = å , } {

57 Distribuição binomial
Valor esperado: E[X]= = Seja k=i-1, então E[X]= Como então, E[X]=np

58 Distribuição binomial Parâmetros
Considerando-se as funções anteriores tem-se para Bi(n, p): Valor esperado Variância Desvio padrão Função geradora de momento n-ésimo momento [ ] E Y np [ ] VAR Y np ( 1 - p ) s ( p ) np 1 - Y ( ) f z ( ( - ) + ) n p z 1 1 [ ] k (k) ( ) E Y f 1

59 Distribuição binomial
Observando-se a esperança e a variância da distribuição binomial se verifica que correspondem à soma de v.a.’s iid com distribuição de Bernoulli. A transformada Z de uma fmp corresponde à sua função geradora de momento:

60 Distribuição binomial Gráficos
Y = 1.449 E[Y]=7 E[Y] 2Y Graficos 3D

61 Distribuição binomial Gráficos

62 Distribuição binomial Gráficos

63 Distribuição binomial Gráficos

64 Distribuição binomial Gráficos

65 Graficos 3D

66 Distribuição binomial
Com relação à fmp de uma binomial tem-se que: valor máximo se encontra em X = E[X] = np estritamente decrescente para X > E[X] simétrica em relação a p (e.g., p = 0.1 e p = 0.9) Pelo teorema do limite central: a v.a. da soma infinita de experimentos independentes (com qualquer distribuição) tende à distribuição gaussiana

67 Distribuição binomial Exemplo em comunicações
infon info2 info1 ... n pacotes de informação são enviados pelo transmissor ao receptor através de uma conexão. A probabilidade de cada um dos pacotes chegar corretamente a R é igual a p. Qual é a probabilidade de que 0  i  n pacotes de informação enviados cheguem corretamente ao receptor?

68 Distribuição binomial Exemplo em comunicações
infon info2 info1 ... n: número de pacotes enviados p: probabilidade de cada pacote chegar corretamente Y = i: número de pacotes enviados que chegarão corretamente, 0  i  n Y v.a. ~ Bi(n,p), n  {0,1,2,3, ...} n i p P Y - ÷ ø ö ç è æ = , ) 1 ( } {

69 Distribuição binomial Exemplo em tolerância a falhas
Vários computadores executam um mesmo algoritmo. O resultado final do algoritmo se determina por votação dos computadores, por maioria simples. Por exemplo, se o resultado de dois ou mais computadores coincide, então esse é o resultado final. Cada computador tem probabilidade de falha igual a 1-p. Para que valores de p convém escolher 1, 3 ou 5 computadores?

70 Distribuição binomial Exemplo em tolerância a falhas
n: número total de computadores X: número de computadores funcionando corretamente (fornecem o resultado correto) X v.a. ~ Bi(n,p), n  {1,3,5} Por exemplo: probabilidade de sucesso do sistema com n computadores (maioria proporciona o resultado correto) m = ((n-1)/2)+1: número mínimo de computadores (n ímpar) que devem dar o resultado correto para o sistema ter sucesso

71 Distribuição binomial Exemplo em tolerância a falhas
Para n  {1,3,5}: Caso n = 1 Caso n = 3 Caso n = 5

72 Distribuição binomial Exemplo em tolerância a falhas
Probabilidade de sucesso

73 Distribuição geométrica
Considere n experimentos de Bernoulli independentes, cada um com probabilidade de êxito p X v.a.  Ge(p) representando o número de tentativas até conseguir o primeiro êxito Função de massa de probabilidade: Função de distribuição:

74 Distribuição geométrica
Valor esperado: E[X]= Fazendo q = 1 - p: E[X] = = = = = Logo, E[X]=

75 Distribuição geométrica
Exemplo: lançar a moeda até o primeiro êxito Êxito = cara Fracasso = coroa Exemplo: número de automóveis não específicos até que um siga o caminho A da bifurcação Êxito = A Fracasso = B Experimentos independentes

76 Distribuição geométrica
F(n) 1 0.9 0.8 Função de distribuição 0.7 0.6 0.5 p=0.2 0.4 0.3 0.2 Função de massa de probabilidade 0.1 5 10 15 20 25 n F(n) 1 0.9 0.8 Função de distribuição 0.7 0.6 0.5 p=0.6 0.4 0.3 0.2 Função de massa de probabilidade 0.1 5 10 15 20 25 n

77 Distribuição geométrica
p(n) E[X]=3,33 x=2.79 E[X] n

78 Distribuição geométrica
Função de massa para distintos valores de p 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,9 p(n) 0,8 0.1 0.5 0.9 1 2 3 4 5 6 7 8 9 10 n

79 Distribuição geométrica

80 Distribuição geométrica
P{X=n} p n

81 Distribuição geométrica
P{X=n} decai mais rápidamente com n quando p aumenta Distribuição em função de p varia com n: para n = 1 é una reta crescente para n < 7 é crescente e logo decresce para n 7 é decrescente Função de massa tem dois pontos degenerados: p = 0: necessárias infinitas tentativas (nunca se consegue êxito) p = 1: êxito sempre é conseguido na primeira tentativa.

82 Distribuição geométrica Parâmetros

83 Propriedade: falta de memória
Elevador em um prédio de três andares Estado #n : elevador no andar n Sem memória: estados #1 e #3 Com memória: estado #2

84 Propriedade: falta de memória
Exemplo relacionado com a distribuição geométrica, duas situações equivalentes:

85 Propriedade: falta de memória
Distribuição geométrica caracterizada pela seguinte propriedade: A informação de nenhum sucesso até a tentativa t é “esquecida” nos cálculos subseqüentes.

86 Propriedade: falta de memória

87 Propriedade: falta de memória
Demonstração: Logo,

88 Propriedade: falta de memória
Substituindo-se Logo, com portanto | propriedade de falta de memória

89 Protocolo Stop & Wait Protocolo de retransmissão mais simples
Idéia básica: ter certeza de que cada pacote transmitido é recebido corretamente antes de transmitir o seguinte Protocolo half-duplex Retransmissão devido a: erro na recepção do pacote time-out

90 Protocolo Stop & Wait Numeração de pacotes:
Se ocorre time-out no transmissor, retransmite pacote i Receptor não sabe distinguir se é uma retransmissão do pacote i ou uma primeira transmissão do pacote i+1 Logo, necessidade de numerar os pacotes, assim como os acks/nacks Numeração módulo 2 é suficiente

91 Esquema físico Definições: ti = tempo de transmissão de um pacote
tp = tempo de propagação tout = tempo máximo de espera de um reconhecimento (ack/nack) tproc = tempo de processamento do pacote

92 Diagrama temporal Fi = transmissão do frame i
Caso 1 Retransmissão por time-out t t i t out proc Tx Tx t F1 F1 F2 A1 Rx t t p t proc Rx Caso 2 Retransmissão por erro t t i proc Tx Tx t F1 F1 F2 N1 A1 Rx t t p t proc Rx Fi = transmissão do frame i Ni = mensagem de frame i recebida com problemas Ai = reconhecimento do frame i

93 Diagrama de transição de estados
Transmissor Receptor + : Entradas - : Saídas Q0: Espera Mensagem 0 Q1: Transmite Ack 0 Q2: Transmite Erro Q3: Espera Mensagem 1 Q4: Transmite Ack 1 Q5: Transmite Erro Q0: Transmite Mensagem 0 Q1: Espera Ack 0 Q2: Transmite Mensagem 1 Q3: Espera Ack 1

94 Tabelas de transição de estados
Q0: Espera Mensagem 0 Q1: Transmite Ack 0 Q2: Transmite Erro Q3: Espera Mensagem 1 Q4: Transmite Ack 1 Q5: Transmite Erro Q0: Transmite Mensagem 0 Q1: Espera Ack 0 Q2: Transmite Mensagem 1 Q3: Espera Ack 1

95 Medidas de desempenho Desempenho pode ser avaliado sob dois pontos de vista: do usuário: menor tempo de resposta menor buffer do sistema: máximo throughput menor memória

96 Máximo throughput Transmissor sempre dispõe de pacotes para transmitir
Time-out é o menor possível  Tout = 2Tp + Tack Existem erros  Pe > 0  existem retransmissões

97 Definições: Ii = i-ésima tentativa de transmitir o pacote
tT = ti + tout = ciclo de operação p = probabilidade de receber o pacote com erro n = número de tentativas até transmitir um pacote pa = probabilidade de transmissão correta na n-ésima tentativa tu = tempo utilizado nas n tentativas E[t] = tempo médio de recepção com sucesso (1)

98 Diagrama de lógica temporal
F1 1-p p Errado Correto t p: probabilidade de erro no pacote

99 Máximo throughput Certamente, Por definição de valor médio
Da figura anterior: Como n é uma v.a. com distribuição Ge(1-p):

100 Máximo throughput Substituindo-se (2), (3) e (4) em (1), obtém-se:
Simplificando (4): Por definição: com

101 Throughput normalizado
p 1 - p T Transmissão efetiva

102 Máximo throughput O throughput normalizado pode ser interpretado como a percentagem do tempo ocupado na transmissão efetiva de pacotes Se o tempo para receber um ack ou um nack é desprezível, também o é o time-out:  a = 1   = (1- p)

103 max=F(p,a) p a a=1 : Rede da área local
a=3 : Rede com enlaces menores a 500 Km a=10 : Rede de enlace satelital

104 max=F(p,a) a=1,8 a=2,1 a=1,4 a=1

105 max=F(p,a) p=0 p=0.2 p=0.4 p=0.6

106 Distribuição de Poisson
X v.a. discreta com domínio  e com a seguinte função de massa de probabilidade: X: distribuição de Poisson com parâmetro   Função de distribuição de probabilidade:

107 Função de massa de probabilidade
Distribuição de Poisson Função de massa de probabilidade

108 Função de distribuição de probabilidade
Distribuição de Poisson Função de distribuição de probabilidade

109 Distribuição de Poisson
= 20 Fn. de distribuição Fn. de massa

110 Função de massa de probabilidade
Distribuição de Poisson Função de massa de probabilidade

111 Distribuição de Poisson
Valor esperado: E[X] = = Fazendo k = i - 1: Como

112 Distribuição de Poisson Parâmetros
E[X ] l Var[X ] l s x j (t) e (e ) t l - 1

113 Processo de contagem Processo estocástico {N(t), t  0} é de contagem se N(t) representa o número total de eventos que ocorrem entre (0,t] Por definição, N(t) satisfaz: N(t)  0 N(t) assume valores inteiros s < t  N(s)  N(t) s < t  N(t) - N(s) = número de eventos durante o intervalo (s,t]

114 Processo de contagem Número de pessoas que entraram em um supermercado no intervalo de tempo (0,t] Número de veículos que entraram em um túnel num intervalo dado Número de gols que um determinado jogador fez num determinado intervalo (0,t]

115 Processo de contagem Incrementos independentes: processo de contagem no qual o número de eventos ocorridos em intervalos de tempos disjuntos são independentes Exemplo: o processo de contagem no intervalo (5,10] não depende do processo de contagem em (0,5]

116 Processo de contagem Incrementos independentes
Número de pessoas que entraram em um supermercado num intervalo de tempo Incrementos não-independentes Número de nascimentos num intervalo de tempo, quando existe controle da natalidade

117 Processo de contagem Incrementos estacionários: número de eventos em (t1+s,t2+s] depende somente da amplitude do intervalo (t2-t1) Ou seja, N(t2+s)-N(t1+s) tem a mesma distribuição que N(t2)-N(t1), onde t2 > t1 e s > 0 0 t1 t2 s+t1 s+t2

118 Processo de contagem Incrementos não-estacionários
A quantidade de ligações telefônicas é maior em determinadas horas do dia Incrementos estacionários Número de veículos que entram em um túnel num ano

119 Processo de Poisson N(t) é um processo de Poisson se:
N(t) é um processo de contagem N(0) = 0 (reset) Tem incrementos independentes e estacionários Número de eventos em qualquer intervalo de amplitude t é distribuído como uma variável de Poisson com média t, ou seja:

120 Processo de Poisson A última condição implica em incrementos estacionários N(t) não se refere apenas a uma variável aleatória com uma distribuição de Poisson, mas sim que para cada t > 0 se tem uma v.a. com uma distribuição de Poisson de parâmetro t (dependente de t) Esta coleção (infinita) de variáveis aleatórias é conhecida como um processo de Poisson

121 Processo de Poisson Tempo entre chegadas
Seqüência {Tn, n=1,2,...}, onde Tn representa o tempo entre o evento (chegada) n e o evento n-1 0 t t2 t3 · · · tn tn T T T3 · · · Tn Eventos (contagem do P.P.) Conjunto de v.a.s com distribuição Exp()

122 Processo de Poisson Tempo entre chegadas
Evento {T1 > t } significa que não aconteceu chegada alguma do processo de Poisson no intervalo (0,t] P{T1 > t} = P{N(t) = 0} = e-t Além disso, P{T2>t | T1=s} = P{0 eventos em (s,s+t]} = e-t Repetindo-se o experimento, conclui-se que Tn, n=1,2,... são v.a. exponenciais independentes e identicamente distribuídas


Carregar ppt "Teoria das Filas e Aplicações"

Apresentações semelhantes


Anúncios Google