A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Teoria da Informação - Um Enfoque Para Telecomunicações

Apresentações semelhantes


Apresentação em tema: "Teoria da Informação - Um Enfoque Para Telecomunicações"— Transcrição da apresentação:

1 Teoria da Informação - Um Enfoque Para Telecomunicações

2 SHANNON : O grande mestre da Teoria da Informação
Claude Elwood Shannon é considerado o pai da Teoria da Informação ou Teoria das Comunicações. Trabalhou na empresa Bell Laboratories (USA) como Matemático e Engenheiro. Shannon nasceu na cidade de Gaylord, Michigan, USA , aos 30 de Abril de 1916 e morreu em aos 84 anos.

3 S H A N N O N

4 Tópicos Gerais : Informação Quantidade de Informação Entropia
Banda de Transmissão Ruído Capacidade de Canal ( Shannon )

5 Conceituando o sistema de comunicação: A Fonte A Informação A Mensagem
Introdução Conceituando o sistema de comunicação: A Fonte A Informação A Mensagem

6 Conceitos Importantes
Elementos de um Sistema de Comunicação sinal transmitido fonte transmissor Canal receptor destino Comunicação é a arte do transporte de informação de um ponto a outro. Fonte é o ente que produz informação. A informação se concretiza em forma de arranjos de elementos básicos que vão constituir certos símbolos que, por sua vez, se juntarão para montar uma mensagem a ser enviada para o destino. A informação será transportada por um determinado sinal, geralmente um sinal elétrico em telecomunicações, até seu destino. É preciso se prover um canal que transporte os símbolos e a informação associada, um meio por onde se propague os sinais. Ruído, interferência sinal de entrada

7 Introdução à Teoria da Informação
FONTE É o ente que produz a informação. Dispõe de elementos simples e símbolos. destinatário fonte Comunicação - é a transferência de informação entre, pelo menos, dois pontos. Logo teremos uma geração da informação e uma recepção pelo destinatário. Comunicação do latim communicare que quer dizer tornar comum, ou de communicatione que é ato ou efeito de comunicar.

8 Introdução à Teoria da Informação
Fontes de informação podem ser classificadas em duas categorias: a - fontes de informação analógica: emissão de sinais de amplitude contínua - Ex: microfone captando a voz, câmara TV.. b- fontes de informação discretas: emissão de símbolos discretos . Ex: saída de modem digital, saída de computador, saída de conversor A/D, etc... No estudo de Teoria da Amostragem, um sinal contínuo, através de amostragem conveniente, pode ser transformado num sinal discreto sem perda ( significativa) de informação.

9 Introdução à Teoria da Informação
A fonte de informação discreta apresenta em sua constituição: O ELEMENTO BÁSICO : que é o componente mais simples que entra na composição representativa da informação. Por exemplo: 0 e 1

10 Introdução à Teoria da Informação
O SÍMBOLO : que é formado por um conjunto ordenado de elementos. Os símbolos que compõem uma fonte também são fixos e definidos. Ex.: com os elementos 0 e 1 podemos compor os simbolos: 10,

11 Introdução à Teoria da Informação
O alfabeto da fonte pode ser o alfabeto de elementos ou alfabeto de símbolos. MENSAGEM:consiste de um conjunto ordenado de símbolos que a fonte seleciona de seu alfabeto, ... elemento Símbolo

12 Introdução à Teoria da Informação
A mensagem é uma realização que se caracteriza por apresentar configurações variáveis ao longo do tempo e, também, para um observador externo à fonte, por apresentar símbolos de um modo aleatório.

13 Introdução à Teoria da Informação
A cada símbolo corresponde uma certa quantidade de informação, que é função de suas probabilidades de ocorrência. A cada mensagem se associa uma certa quantidade de informação, dada pela soma das quantidades de informação de cada símbolo. Informação ? Quando recebemos a “informação” sobre um dado assunto, saímos da situação de “ignorância”deste assunto. Exemplo, queremos comprar um livro, sem preço na libraria. Estamos no estado de ignorância. Olhamos o livro e ficamos incertos sobre seu valor, será R$ 25,00, será R$ 45,00 ? A vendedora vem e perguntamos o valor do livro. Ao nos responder, recebemos a informação e saímos do estado de Ignorância, passamos a ter uma certeza: o livro custa R$45,00!

14 Introdução à Teoria da Informação
A produção de uma seqüência de símbolos, que podem ser letras , notas musicais, dados, imagens, etc, operando de acordo com certas probabilidades, é chamado um “processo estocástico”, “aleatório” ou “randômico” . Um caso especial, quando as probabilidades dependem de eventos antecedentes, é denominado processo Markov ou cadeia de Markov.

15 Introdução à Teoria da Informação
O processo de comunicação consiste em estabelecer o fluxo de informações entre fonte e destinatário, o que é feito através da transmissão dos símbolos que compõem a mensagem. A fonte, ao falar o preço, transferiu símbolos verbais ( palavras), presentes na linguagem de ambos ( fonte e destinatário). Quando o símbolo R$ 45,00 foi reconhecido pela mente do destinatário, desapareceram as incertezas e sobrou a certeza sobre o preço. MENSAGEM  DESTINO FONTE CANAL

16 Quantidade de Informação É possível medir??
“ Só conhecemos realmente um fenômeno quando podemos medí-lo e compará-lo” ( Darwin ) Quantidade de Informação É possível medir??

17 Introdução à Teoria da Informação
Do ponto de vista técnico a informação é analisada no que diz respeito às características de diversidade e de aleatoriedade dos símbolos que a fonte seleciona. Os resultados básicos da Teoria da Informação são os que relacionam a capacidade de transmissão do canal com o conteúdo de informação presente na mensagem transmitida. O canal tem que ser dimensionado para transmitir a pior configuração possível do sinal ( símbolos) independentemente de como este se relaciona com o conteúdo de informação que transporta.

18 Introdução à Teoria da Informação
fonte JOGO: Quem adivinhar a carta Recebe US$ 50,00 ? Número distinto de símbolos Os símbolos recebidos são imprevisíveis

19 Introdução à Teoria da Informação
O nível de incerteza a respeito da ocorrência de um símbolo pode ser expresso pela probabilidade de ocorrência deste símbolo. Esta probabilidade é fundamental para a medida da quantidade de informação que cada símbolo carrega para o destinatário. Na empresa apresenta-se no painel os indicadores de problemas, visualizados em luzes coloridas. A- Brancas : correspondendo a 06 pontos de supervisão de baixa prioridade. Ação em 24 horas. B- Preta: correspondendo a 03 pontos de supervisão de média prioridade. Correção em 12 horas. C- Verde: corresponde a um ponto de supervisão de alta prioridade`. Ação imediata.  Ao final de semana, qual a expectativa do técnico quanto aos alarmes? 1- grau de certeza para alarme baixa prioridade: P=6/10= 60% 2- grau de certeza para alarme média prioridade: P = 3/10 =30% 3- grau de certeza para alarme alta prioridade: P = 1/10 = 10%

20 Introdução à Teoria da Informação
Eventos possíveis são todos aqueles que têm condição de ocorrer em um experimento. Eventos favoráveis são aqueles eventos, dentre os eventos possíveis, que satisfazem a uma condição pré-fixada. A probabilidade de uma condição é definida classicamente como a relação entre o número nf de eventos favoráveis e o número total np de eventos possíveis. P = nf / np Considere as duas condições: a- o número de casos favoráveis seja nulo nf = 0, logo P = 0 b- todos os casos forem favoráveis nf = np = e P = 1 Logo 0  P  1 Exemplo lance o dado para tirar a face ”6”. Eventos possíveis 1,2,3,4,5 e 6 . O evento favorável só a face 6. P (6) = 1 / 6 = 0,166 A probabilidade de sair a face 5 é de 1 em 6 (total de eventos possíveis). P = 1/6

21 Incerteza do Jogador P= 1 => certeza total
0,7 – grau de incerteza antes que o evento ocorra Informação é a “quantidade de incerteza” Sobre a ocorrência de um símbolo, Que é anulada quando este símbolo ocorre. 0,3 grau de certeza (probabilidade que aconteça um evento) antes que o evento ocorra P = 0 => incerteza total Se a probabilidade é p=0,3, o grau de incerteza é 0,7. Quando o evento ocorre, passa p=0,3 para p=1

22 Introdução à Teoria da Informação
Quanto maior o número de símbolos disponíveis na fonte ( isto é, sua variedade), maior será o grau de incerteza sobre qual símbolo será selecionado para envio. destinatário ? P( verde ) = 0,5

23 Introdução à Teoria da Informação
Grau de liberdade: se todos os símbolos têm igual probabilidade de serem selecionados, a fonte possui o maior grau de liberdade possível na seleção.

24 Introdução à Teoria da Informação
Informação e sua Medida. FONTE COM SÍMBOLOS MENSAGEM: conjunto de símbolos Fonte “X” , com um conjunto de símbolos ( x1, x2 ..xi )

25 Introdução à Teoria da Informação
Variedade de Símbolos: a- alfabeto com “n” elementos. b - símbolo composto por uma combinação de “m” elementos dentre os “n”. Configurações possíveis => N = nm

26 Princípios de telecomunicações
A fonte seleciona os símbolos ao produzir a mensagem. Para o observador externo, que desconhece a lógica da fonte, a escolha é aleatória. Pode-se associar a cada símbolo selecionado uma certa probabilidade de ocorrência.

27 Introdução à Teoria da Informação
Quantidade de Informação inerente a um símbolo xi : I(xi) = f [ P (xi)] É importante observar que não há sentido em se falar em informação associada a um símbolo isolado e, sim, quando este pertence a um conjunto de símbolos onde há “um grau de liberdade” de escolha. Quando se fala em probabilidade de um evento, estamos falando a respeito de um evento que pertence a um conjunto bem determinado de eventos, aos quais se associa suas probabilidades. P(xi) = probabilidade de ocorrência.

28 Introdução à Teoria da Informação
Esta função deve ter as seguintes propriedades: 1. Se P(xi) = 1 ENTÃO I (xI) = 0 2. Se P (xi) = 0 ENTÃO I ( xi ) =  3. I (xi ) é monotônica decrescente com P( xi) A função será: I (xi ) = - log 2 P (xi ) (bits) Algo totalmente improvável teria informação infinita ! BIT - binary digit : “The unit of selective information, i.e. the amount of information derived from the knowledge of the occurence of one of two equiprobable, exclusive and exhaustive events” CCITT livro verde volume VIII Observar que: 1. A Probabilidade é um valor positivo, entre 0 e 1, 2. O sinal negativo garante um valor positivo à quantidade de informação. 3. A escolha da base define o valor numérico da informação, e decidiu-se conveniente a base 2, neste caso a unidade é chamada de Shannon.

29 Introdução à Teoria da Informação
Dada uma fonte X, sabemos: Símbolo x1, x2, xn Probabilidade de Ocorrência: P (xn ) Informação Própria do Símbolo... I (xn) A quantidade de informação de um evento (associado a uma mensagem) é definida como o logaritmo do inverso da probabilidade deste evento. I (xi ) = log 2 1 / P (xi ) Lei de Bernoulli:` A frequência relativa tem um valor bem próximo da probabilidade e se pode tomar a primeira pela segunda, sem grande erro, quando o número de experiências é suficientemente grande. Ex:Se jogarmos um dado 1000 vezes, a probabilidade de sair 6 é de 0,169. Este valor tem a maior probabilidade de ser igual a probabilidade do evento isolado ( ocorrer a face 6). Isto permite que se utilize a probabilidade de um evento isolado com a frequência relativa de sua ocorrência, verificada quando o número de experiências é grande.

30 Comunicação e Informação
A informação é recebida pelo destinatário quando este identifica o símbolo recebido com um dos de seu alfabeto. A informação se transforma em comunicação quando os símbolos identificados pelo destinatário possuem um sentido interpretável por ele.

31 Comunicação e Informação em resumo!
A equação de Shannon para relacionar a quantidade de informação (I) Com a probabilidade (p) é a seguinte: I = log2 (1 /p) I = quantidade de informação de um símbolo p = probabilidade da mensagem que se transmite log2 = logaritmo na base 2

32 Um conceito fundamental :
ENTROPIA : é a medida da quantidade de informação presente num experimento (não em um símbolo apenas) randômico ou aleatório. Quanto maior a quantidade de informação de um experimento, maior será sua entropia.

33 Introdução à Teoria da Informação
Para telecomunicações o que nos interessa é a quantidade de informação média ao longo do tempo para dimensionar os sistemas de telecomunicações.

34 Introdução à Teoria da Informação
X FONTE M=[a,b,c...s] A a a a b b s s s s s s a a a s Ou seja : Dada uma fonte “X” atuando... Com M símbolos, com mj ocorrências, cada símbolo ocorrendo xj vezes; teremos assim uma quantidade “Q” total de informação.

35 Introdução à Teoria da Informação
Problema: Quando a fonte era conhecida ( nosso dado com 6 faces) conhecíamos as probabilidades, como p(2) = 1/6. Mas numa fonte desconhecida como saber a probabilidade de um evento isolado?

36 Seja a experiência “lançamento de um dado 1000 vezes” E determinar a freqüência relativa do aparecimento da face 6. faces Resultados favoráveis Freqüência relativa 1 166 0,166 2 163 0,163 3 164 0,164 4 170 0,170 5 168 0,168 6 169 0,169 total 1000 1,000 P(6) = 1/6 0,167 Freqüência relativa do aparecimento de 6. Número total de ocorrência da face 6 = 169

37 lei fraca dos grandes números.
Lei de Bernouilli lei fraca dos grandes números. O valor mais provável da freqüência relativa a ser encontrado, quando a experiência é realizada um grande número de vezes, é numericamente igual a probabilidade do evento isolado

38 QUANTIDADE de Informação gerada
Q =  mi I (xi ) = n i =1 Q = quantidade de informação mi = número total de ocorrências de cada símbolo xi n = todos os diferentes símbolos da fonte. Se a fonte X com seu conjunto de símbolos {xj} a cada símbolo xj corresponde uma probabilidade de ocorrência P(xj ) e uma informação própria I ( xj ). Nos interessa a quantidade de informação liberada ao longo do tempo, em termos de média. Se a fonte manda um grande número de mensagens. Com M, o número total de símbolos, e mj o número total de ocorrências de cada símbolo xj . A quantidade total de informação Q será dada pela soma de todos os n diferentes símbolos possíveis da fonte. Lembrando da lei de Bernoulli, se o número M de símbolos for suficientemente grande, podemos tomar mj / M por P(xj)

39 Introdução à Teoria da Informação
Q =  mi I (xi ) i =1 n M = número total de símbolos utilizados Lembrando a lei fraca dos grandes números, se M for suficientemente grande podemos tomar mi / M por P (xi) Então vamos dividir a expressão por M

40 Introdução à Teoria da Informação
Lembrando que: I(xi) = - Log2 P ( xi ) Conteúdo total de informação n Q P (xi ) I ( xi ) = HX) = M I = 1 Número total de símbolos H (X) Entropia

41   ENTROPIA n H(x) = P (xi ) I ( xi ) I = 1 OU MELHOR: n H(x) = -
= - P (xi ) log2 P ( xi ) I = 1

42 ATENÇÃO Não confudir o parâmetro I com o parâmetro H

43 Introdução à Teoria da Informação
Um exemplo prático: a, b, c, d, e, f, g, h, i, j, l, m, n, o, p, q, r, s, t, u, v, x, z Observação: Você deve estar se perguntando pelas letras W, Y e K.Elas não pertencem mais ao nosso alfabeto.São usadas apenas em casos especiais

44 Introdução à Teoria da Informação
As mensagens a serem transmitidas são compostas pelas 23 letras do alfabeto, (N =23) formando combinações aleatórias. Como as mensagens têm a mesma probabilidade, a ENTROPIA do sistema será: H = log2 N ou H = log2 23 H = 5 significa que necessitamos de 5 bits para codificar cada uma das letras do alfabeto.

45 Introdução à Teoria da Informação
B E Ex.: alfabeto com elementos 0 e 1 e m = 5 25 = 32 Código telegráfico : Baudot L O

46 Introdução à Teoria da Informação
A informação média ou entropia em uma fonte com m símbolos xi é máxima quando as probabilidades de seus símbolos forem equiprováveis. Considerando um gerador de sinais binarios, que se comporta como uma fonte produzindo uma sequência de símbolos simples, independentes e equiprováveis. P(x1) = P (x2) mas  (i=1 até 2 ) temos  P(xi) = 1 resulta P (xi) = 1 / n A informação própria de cada símbolo I (xi ) = - log2 P (xi ) = - log2 1/ n = - log2 n shannon A entropia H(X) =  P(xi ) . I ( xi ) = log2 n  P ( xi ). ( com i de 1 a n) H( X ) = log2 n Agora considerando v = log2 n bit H(X) = I(xi ) = v

47 Introdução à Teoria da Informação
Em telecomunicações encontramos fontes que emitem símbolos binários ou bits. Cada bit assume dois estados: 0 ou 1 Logo temos P(0) e P(1) H(X) = -[P(1) log2 P(1) + P(0) log2 P(0)] shanonn/símbolo

48 Introdução à Teoria da Informação
Se as ocorrências de (0) e (1) forem equiprováveis temos P(1) = P(0) =1/2 H(X) = 1 shannon/símbolo Ou 1 bit / símbolo

49 Introdução à Teoria da Informação
Quanto todos os símbolos são equiprováveis a quantidade de informação média por símbolo é numericamente igual à quantidade de informação própria de cada símbolo e igual a variedade. H(X) = I(xi ) = v

50 Entropia Tendo calculado a Entropia de uma fonte e obtido: H(X) = 0,8
Isto significará que esta fonte em sua escolha de símbolos, com a finalidade de formar uma mensagem, estará com aproximadamente 80% de grau de liberdade.

51 Aplicação Dada uma fonte e calculamos sua entropia:
Símbolos Aplicação fonte Dada uma fonte e calculamos sua entropia: H(X) = 7 sh / símbolo Isto nos indica que, em média, seus símbolos podem ser representados por 7 bits.

52 Princípios de telecomunicações
O canal

53 Comunicação da fonte ao destino.
Transdutor de Entrada mensagem Sinal de vídeo Transdutor De Saída Sistema de Comunicação Sinal de vídeo Fonte de Informação: Cena / imagem Mensagem recebida Mensagem: caracterização física da informação

54 Sistema de Comunicação digital simplificado
destinatário Sistema De Comunicação Transdutor entrada Transdutor saída Codifi cador Trans- missor Canal de comunicação Decodi ficador Fonte Receptor Destino Sinal de entrada - mensagem Sinal a transmitir Sinal Codificação. binária Sinal de saída Sinal recebido

55 O canal Sempre que gerarmos informação pela seleção feita no alfabeto de uma fonte (codificador que alimenta o canal em certa velocidade), isto corresponderá a uma liberação de certa quantidade de bits/s lançados no canal (meio físico) pelo transmissor. transmissor receptor canal

56 O canal P ( yj/ xi ) ou P (xi / yj )
entrada saída fonte canal destino X=(xi) Y = ( yj ) P ( yj/ xi ) ou P (xi / yj ) ( P (yj,xi ) significa a probabilidade de se obter um yj na saída sendo enviado um xi )

57 O canal fonte canal destino fonte destino H(Y) Entropia no destino
H(X) p X1=1 Y1 =1 q q p = 1 - q X2 =0 Y2 = 0 p

58 O canal É preciso fazer o dimensionamento da Capacidade do Canal de forma a suportar o fluxo de informação que lhe é oferecido. Sem ruído não há distorção, o que entra no canal será entregue por ele! Com ruído, o “1” pode ser recebido como “0”

59 As entropias presentes serão:
O canal As entropias presentes serão: H(X) entropia na fonte, ou entrada do canal. H(Y) entropia no destino ou saída do canal H(X/Y) ou H(Y/X) dispersão provocadas por ruídos e distorções do canal, que acarretam erros nos símbolos e perda da informação. H(X;Y) entropia mútua entre entrada e saída (transinformação), que é a informação passada da fonte para o destino. H(X,Y) é a entropia conjunta, criada pelos símbolos da fonte e do destinatário tomados em conjunto.

60 O canal De fato desejamos a transinformação e queremos que ela seja máxima: H(X ; Y) = H(X) - H ( X / Y) sh/símb Canal sem ruído = H( X /Y ) = 0 Define-se: Capacidade máxima do canal C = Hmax (X;Y ) sh/símb

61 O canal Um canal sem ruído, não tem erro de símbolo transmitido, logo está sem perda: Neste caso especial: H(X /Y) = H (Y/X) = 0 H(X;Y) = H(X) = H(Y) = H(X,Y) sh/símb Sem ruído: H(X) = H(Y) = H(X;Y) - toda a informação na entrada do canal chega ao destinatário. Neste caso Hmax (X;Y) = Hmax(X) Então a Capacidade do canal será dada por: C = log2 N sh/símb

62 O Canal Capacidade de transmissão do canal
1. A fonte nos dá uma variedade de símbolo: V = log2 N ou ainda, v = m log2 n ( bit) No caso de uma fonte binária. Equiprovável, com elementos 0 e V = 1 log2 2 = 1 bit Transmissor: 10 volts = bit “1” 0 volts = bit “0” Fonte + codif. Canal: (Par de fios) H(X) = - [P(1) log2 P(1) + P(0) log2 P(0) ] = 1 shanon/símbolo Cada símbolo será representado por unidades binárias ( bits), numericamente igual a entropia!

63 Capacidade de Transmissão do Canal
TRANSMISSOR SINALIZA A LINHA COM DIFERENTES TENSÕES Canal = Linha física: pares de fios. TX RX V V t1 t tempo tempo t2 t1 t1 + t1 t2 + t2 Tempo da transição de um estado para outro

64 O canal Variação dos Símbolos por unidade de tempo
(velocidade de sinalização) entregue ao canal será a variabilidade Vs = v /  (bit/s) ( relação entre a variedade V dos símbolos produzidos pela fonte e o intervalo de tempo “” em que são produzidos) Fonte binária

65 TRANSMISSÃO TELEGRÁFICA
Teleimpressor: terminal a LINHA = canal Variação de corrente bateria I 1 +i a = 01011 t t ideal -i real

66 Princípios de telecomunicações
Capacidade de Transmissão do Canal

67 Capacidade de Transmissão do Canal
Além da análise estática shannon/ símbolo é preciso analisar dinamicamente a Vs = v /  Suponhamos uma fonte que produz M símbolos ao longo do tempo T e a cada símbolo corresponde o intervalo de tempo , teremos uma taxa de envio destes símbolos:  = T então Vs = M v bit/s M T

68 Capacidade de Transmissão do Canal
Na prática o canal não consegue responder além de uma certa velocidade de transição do sinal. Existe um tempo mínimo [mín] para que o sistema responda a uma transição do sinal. v v t t

69 Capacidade de Transmissão do Canal
No início das técnicas de transmissão de sinais elétricos ( transmissões telegráficas) observou-se que os sinais eram transmitidos, enviados pelo canal, mas chegavam distorcidos. Essa distorção se devia a esta duração mínima necessária, que levou a definição da faixa de passagem oferecida pelo meio.

70 Capacidade de Transmissão do Canal
A pior condição do sinal entrante é a de que em cada intervalo mín ocorra uma transição. Para que o canal possa distinguir isto constatou-se que precisava ter um período de duração “T” mínimo, dado por: T = 2 mín Assim se definiu uma largura de faixa mínima, em Hertz, dada por: B = 1 2 mín

71 Capacidade de Transmissão do Canal
part par O sinal telegráfico de um terminal teleimpressor se compõe de 1 pulso de partida com a duração e 20 ms; 5 pulsos binários portadores de Informação com a duração de 20 ms cada e 1 pulso de parada com a duração de 30 ms. Nesta condições toma-se para mín o menor valor, de 20 ms. Logo B = 1 / 2 mín = 1 / 2x20 x10-3 B = 25 Hz

72 Capacidade de Transmissão do Canal
Visto que o símbolo possui a variedade dada por: v = log2 n max bits A velocidade máxima de transmissão do sinal será igual à máxima velocidade de sinalização que o canal aceita , ou seja: Vs = V = log 2 n max bit/s. T mín

73 Capacidade de Transmissão do Canal
Como este é o sinal mais crítico que se pode transmitir, esta grandeza vai medir a capacidade Ct de transmissão de sinal Ct = 1 log2 n max bit/s mín B = 1/ 2 mín Telegrafia = Capacidade = 50 bps 50 = log / mín B = 25 Hz Logo o mín = 1/50 = 0.02 s ou 20 ms

74 Princípios de Telecomunicações
A presença do Ruído limitando a capacidade do Canal

75 Capacidade do Canal com Ruído
É um sinal aleatório ao qual não se tem controle sobre sua forma. No processo de transmissão do sinal pelo canal observa-se sinais espúrios, aleatórios, que se somam ao sinal desejado.

76 Capacidade do Canal com Ruído
Ruído branco: ocorre devido à agitação térmica onde elétrons livres apresentam um movimento aleatório e produzem uma corrente elétrica, quando se é observado em intervalos de tempo infinitamente pequenos. I(t) Esta corrente extremamente pequena, é uma corrente de natureza aleatória, com valores ora num sentido, ora noutro, fazendo com que ao longo do tempo se anulem. No entanto as potências oriundas não terão um valor médio nulo. O ruído térmico apresenta um espectro constante para todos os sistemas de telecomunicação. t

77 Capacidade do Canal com Ruído
Agora se considerarmos um sinal elétrico sendo transmitido no canal; As variações no sinal podem ser analisadas como alterações em sua amplitude, percebidas entre dois instantes diferentes.

78 Capacidade do Canal com Ruído
Mas a velocidade de transição do sinal encontra uma limitação prática, Em termos físicos existem elementos armazenadores de energia no canal que impedem cargas e descargas instantâneas. Estes componentes impõe um tempo mínimo “  “ para resposta física

79 Capacidade do Canal – limitações físicas
A pior condição para o sinal entrante é aquela em que a cada intervalo “ mínimo“ ocorra uma transição, Figura 2 Figura 3 Figura 4 Figura 1 v t t t t t

80 Capacidade do Canal com Ruído
Contudo, os ruídos inerentes ao processo de transmissão impedem que se reconheça amplitudes a partir de um determinado valor. v sinal t t Sinal + ruído ruído t

81 Capacidade do Canal com Ruído
Os níveis distinguíveis podem ser apresentados em função da relação sinal / ruído. Ruídos impedem reconhecer subdivisões de amplitude do sinal recebido nmax = s+r = 1 + s r r Níveis de amplitude s+r s r tempo mín

82 Capacidade do Canal com Ruído
Consideremos ainda que mín se relaciona com a largura de faixa do sistema( B = 1/2 min) temos: Ct = 2 B log2 ( 1 + s / r) bit/s Ruído é um sinal complexo de natureza aleatória. Sistemas de Telecomunicações trabalham com sinais complexos Sinais complexos se somam em potência.

83 Capacidade do Canal com Ruído
Se trabalharmos com a potência do sinal (S), a potência do ruído (R) e  si2 S =  si2 R =  ri2 nmax 2 = S + R = 1 + S = 1 + R  ri2 R si componentes individuais do sinal ( valor eficaz) Ri componentes individuais do ruído ( valor eficaz) nmax = ( S )1/2 R

84 Capacidade do Canal com Ruído
Substituindo este novo resultado e a banda B de passagem chegamos a C = B log2 ( 1 + S ) bit/s Conhecida como a Lei de Shannon-Hartley e vai nos traduzir a velocidade de transmissão de informação ou capacidade de informação que o canal permite. R A capacidade do canal discreto, ocorre quando a fonte está casada com o canal. O resultado C = B log2 ( RSR +1 ) ( RSR = relação sinal ruído na saída do canal) Este resultado clássico da teoria da Informação, devido a Shannon - Hartley, fornece um limite superior para transmissão de informação em canais afetados por ruído Gaussiano.. Tenta-se, deste modo, otimizar um sistema de comunicações de modo que se tenha uma taxa de bits ttão próxima quanto possível de C. Se a capacidade do canal é menor que a taxa de bits enviada não será possível uma transmissão isenta de erros.

85 Capacidade do Canal com Ruído
Lei de Shannon-Hartley C = B log2 ( 1 + S/R ) bit/s C = capacidade do canal - medida em bits por segundo B = banda do canal- medida em Hertz S/R = relação sinal ruído - geralmente dada em dB, decibéis relação logarítmica de potências, por exemplo: Sinal de voz S/N 30 dB = 1000 vezes

86 BIBLIOGRAFIA MELO, Jair Candido. Introdução à Teoria da Informação. MacGraw-Hill. Brasil. 1976 CARSON. A Bruce. Communication Systems. McGraw-Hill. Singapore BARRADAS. Ovídio. Sistemas Analógicos-Digitais. Livros Técnicos e Científicos. Rio de Janeiro.1980 EPSTEIN Isaac. Teoria da Informação. Ática.S.Paulo EDWARDS Elwyn. Introdução à Teoria da Informação. Cultirx. S. Paulo.1971


Carregar ppt "Teoria da Informação - Um Enfoque Para Telecomunicações"

Apresentações semelhantes


Anúncios Google