Teoria da Informação - Um Enfoque Para Telecomunicações

Slides:



Advertisements
Apresentações semelhantes
Aula 3 – Transmissão Digital
Advertisements

Mecânica Quântica: Função de Onda
Lei de Little.
O Áudio (Parte I) Prof. AMOUSSOU DOROTHÉE
Aula 1 – Sinais Analógicos e Digitais
Parte I – Sinais e Sistemas
1- É O CRIADOR DA TEORIA DA INFORMAÇÃO George Boole Blase Pascal V
Amintas engenharia.
A informação e sua representação
por Fernando Luís Dotti
por Fernando Luís Dotti
Conversores Analógico-Digital
Sinais e Sistemas – Capítulo 4
Centro Federal de Educação Tecnológica do Espírito Santo
Princípios Transmissão de Dados
Prof. Eduardo Leivas Bastos
Conversão Analógica/Digital PCM
Prof. Eduardo Leivas Bastos
1. SINAIS Contém informações sobre uma variedade de coisas e atividades em nosso mundo físico. PROCESSAMENTO DE SINAIS Ato de extrair as informações necessárias.
Comunicação local Assíncrona
10. Análise de Fourier usando DFT
Comunicações Digitais
Introdução aos Processos Estocásticos
MODULAÇÃO Conceito de Modulação
Banda passante do meio físico
Estatística amintas paiva afonso.
COMUNICAÇÃO EMPRESARIAL
TRANSMISSÃO DE INFORMAÇÃO
Camada Física Universidade do Estado de Mato Grosso
Site: Estatística Prof. Edson Nemer Site:
Redes de Computadores Transmissão da Informação.
Fundamentos de Análise de Sinais
Fundamentos de Telecomunicações
Fundamentos de Telecomunicações
Fundamentos de Telecomunicações
Teoria da Informação Profa. Lillian Alvares
Introdução teórica A modulação em freqüência consiste na variação da freqüência da portadora proporcionalmente ao sinal de informação. Dado o sinal modulador.
INVERSOR PRINCIPIO DE FUNCIONAMENTO
Aula 8 By: Abraham Ortega Paredes
Processamento de Sinais
Prof. Msc. Wellington W. F. Sarmento
NOÇÕES DE PROBABILIDADE
Introdução à Comunicação Catarina Duff Burnay 2013
REDE DE COMPUTADORES.
Sinais Digitais, transmissão e problemas
Prof. Cristiano Forte Aula 4
Estatística Aula 13 Prof. Marllus Gustavo Ferreira Passos das Neves
Índice Modulação Modulação - Portadora Modulação Amplitude Frequência
Um pouco de história… Maxwell (1831–1879) previa a existência de ondas electromagnéticas, idênticas às ondas luminosas. A sua teoria foi muito contestada.
Campus de Caraguatatuba Aula 9: Noções Básicas sobre Erros (3)
Ferramentas apresentadas
Modulação Trabalho Realizado por: João Santos Disciplina de:
TRABALHO REALIZADO POR: Ricardo costa
Estatística Geral (Elementos de Probabilidade)
Protocolo MODBUS [ Slide de Abertura com a presença de outras logomarcas ] A segunda opção é a mais apropriada para a presença de mais de duas marcas.
Trabalho realizado por: Ricardo Costa Comunicação de dados
Tecnologia em Gestão da TI
Redes de Computadores e Internet Sistemas de comunicação de dados Professor: Waldemiro Arruda.
2.2 Comunicação de informação a longas distâncias
Probabilidade Definição de Probabilidade Principais Teoremas
Introdução às Telecomunicações
1 Redes de computadores e a Internet  1.1 Evolução Histórica das Redes de Dados  1.2 Terminologia de Teleprocessamento  1.3 Formas de Utilização do.
Fundamentos de Redes de Computadores
2.1. Comunicação de informação a curtas distâncias
1820 – Oersted verifica experimentalmente que uma corrente eléctrica cria um campo magnético. Até então, a electricidade e o electromagnetismo eram realidades.
PESQUISA OPERACIONAL II Professor: D. Sc. Edwin B. Mitacc Meza
Professor: Gerson Leiria Nunes.  Correlação de sinais  Correlação cruzada  Exemplo correlação  Autocorrelação  Propriedades da correlação  Exemplo.
Circuitos Digitais Prof. Marcio Cunha Aula 01 – Introdução à Eletrônica Digital.
Inferência 1:Estimação de Parâmetros Relembrando o Teorema Central do Limite Da aula anterior: a) Os estimadores da média e da s 2 são não viciados e de.
Codificadores e Decodificadores Prof. Lucas Santos Pereira
Transcrição da apresentação:

Teoria da Informação - Um Enfoque Para Telecomunicações

SHANNON : O grande mestre da Teoria da Informação Claude Elwood Shannon é considerado o pai da Teoria da Informação ou Teoria das Comunicações. Trabalhou na empresa Bell Laboratories (USA) como Matemático e Engenheiro. Shannon nasceu na cidade de Gaylord, Michigan, USA , aos 30 de Abril de 1916 e morreu em 2001 aos 84 anos.

S H A N N O N

Tópicos Gerais : Informação Quantidade de Informação Entropia Banda de Transmissão Ruído Capacidade de Canal ( Shannon )

Conceituando o sistema de comunicação: A Fonte A Informação A Mensagem Introdução Conceituando o sistema de comunicação: A Fonte A Informação A Mensagem

Conceitos Importantes Elementos de um Sistema de Comunicação sinal transmitido fonte transmissor Canal receptor destino Comunicação é a arte do transporte de informação de um ponto a outro. Fonte é o ente que produz informação. A informação se concretiza em forma de arranjos de elementos básicos que vão constituir certos símbolos que, por sua vez, se juntarão para montar uma mensagem a ser enviada para o destino. A informação será transportada por um determinado sinal, geralmente um sinal elétrico em telecomunicações, até seu destino. É preciso se prover um canal que transporte os símbolos e a informação associada, um meio por onde se propague os sinais. Ruído, interferência sinal de entrada

Introdução à Teoria da Informação FONTE É o ente que produz a informação. Dispõe de elementos simples e símbolos. destinatário fonte Comunicação - é a transferência de informação entre, pelo menos, dois pontos. Logo teremos uma geração da informação e uma recepção pelo destinatário. Comunicação do latim communicare que quer dizer tornar comum, ou de communicatione que é ato ou efeito de comunicar.

Introdução à Teoria da Informação Fontes de informação podem ser classificadas em duas categorias: a - fontes de informação analógica: emissão de sinais de amplitude contínua - Ex: microfone captando a voz, câmara TV.. b- fontes de informação discretas: emissão de símbolos discretos . Ex: saída de modem digital, saída de computador, saída de conversor A/D, etc... No estudo de Teoria da Amostragem, um sinal contínuo, através de amostragem conveniente, pode ser transformado num sinal discreto sem perda ( significativa) de informação.

Introdução à Teoria da Informação A fonte de informação discreta apresenta em sua constituição: O ELEMENTO BÁSICO : que é o componente mais simples que entra na composição representativa da informação. Por exemplo: 0 e 1

Introdução à Teoria da Informação O SÍMBOLO : que é formado por um conjunto ordenado de elementos. Os símbolos que compõem uma fonte também são fixos e definidos. Ex.: com os elementos 0 e 1 podemos compor os simbolos: 10,101..1100...

Introdução à Teoria da Informação O alfabeto da fonte pode ser o alfabeto de elementos ou alfabeto de símbolos. MENSAGEM:consiste de um conjunto ordenado de símbolos que a fonte seleciona de seu alfabeto, ... 10011 10001 01110 elemento Símbolo

Introdução à Teoria da Informação A mensagem é uma realização que se caracteriza por apresentar configurações variáveis ao longo do tempo e, também, para um observador externo à fonte, por apresentar símbolos de um modo aleatório.

Introdução à Teoria da Informação A cada símbolo corresponde uma certa quantidade de informação, que é função de suas probabilidades de ocorrência. A cada mensagem se associa uma certa quantidade de informação, dada pela soma das quantidades de informação de cada símbolo. Informação ? Quando recebemos a “informação” sobre um dado assunto, saímos da situação de “ignorância”deste assunto. Exemplo, queremos comprar um livro, sem preço na libraria. Estamos no estado de ignorância. Olhamos o livro e ficamos incertos sobre seu valor, será R$ 25,00, será R$ 45,00 ? A vendedora vem e perguntamos o valor do livro. Ao nos responder, recebemos a informação e saímos do estado de Ignorância, passamos a ter uma certeza: o livro custa R$45,00!

Introdução à Teoria da Informação A produção de uma seqüência de símbolos, que podem ser letras , notas musicais, dados, imagens, etc, operando de acordo com certas probabilidades, é chamado um “processo estocástico”, “aleatório” ou “randômico” . Um caso especial, quando as probabilidades dependem de eventos antecedentes, é denominado processo Markov ou cadeia de Markov.

Introdução à Teoria da Informação O processo de comunicação consiste em estabelecer o fluxo de informações entre fonte e destinatário, o que é feito através da transmissão dos símbolos que compõem a mensagem. A fonte, ao falar o preço, transferiu símbolos verbais ( palavras), presentes na linguagem de ambos ( fonte e destinatário). Quando o símbolo R$ 45,00 foi reconhecido pela mente do destinatário, desapareceram as incertezas e sobrou a certeza sobre o preço. MENSAGEM  DESTINO FONTE CANAL

Quantidade de Informação É possível medir?? “ Só conhecemos realmente um fenômeno quando podemos medí-lo e compará-lo” ( Darwin ) Quantidade de Informação É possível medir??

Introdução à Teoria da Informação Do ponto de vista técnico a informação é analisada no que diz respeito às características de diversidade e de aleatoriedade dos símbolos que a fonte seleciona. Os resultados básicos da Teoria da Informação são os que relacionam a capacidade de transmissão do canal com o conteúdo de informação presente na mensagem transmitida. O canal tem que ser dimensionado para transmitir a pior configuração possível do sinal ( símbolos) independentemente de como este se relaciona com o conteúdo de informação que transporta.

Introdução à Teoria da Informação fonte JOGO: Quem adivinhar a carta Recebe US$ 50,00 ? Número distinto de símbolos Os símbolos recebidos são imprevisíveis

Introdução à Teoria da Informação O nível de incerteza a respeito da ocorrência de um símbolo pode ser expresso pela probabilidade de ocorrência deste símbolo. Esta probabilidade é fundamental para a medida da quantidade de informação que cada símbolo carrega para o destinatário.   Na empresa apresenta-se no painel os indicadores de problemas, visualizados em luzes coloridas. A- Brancas : correspondendo a 06 pontos de supervisão de baixa prioridade. Ação em 24 horas. B- Preta: correspondendo a 03 pontos de supervisão de média prioridade. Correção em 12 horas. C- Verde: corresponde a um ponto de supervisão de alta prioridade`. Ação imediata.   Ao final de semana, qual a expectativa do técnico quanto aos alarmes? 1- grau de certeza para alarme baixa prioridade: P=6/10= 60% 2- grau de certeza para alarme média prioridade: P = 3/10 =30% 3- grau de certeza para alarme alta prioridade: P = 1/10 = 10%

Introdução à Teoria da Informação Eventos possíveis são todos aqueles que têm condição de ocorrer em um experimento. Eventos favoráveis são aqueles eventos, dentre os eventos possíveis, que satisfazem a uma condição pré-fixada. A probabilidade de uma condição é definida classicamente como a relação entre o número nf de eventos favoráveis e o número total np de eventos possíveis. P = nf / np Considere as duas condições: a- o número de casos favoráveis seja nulo nf = 0, logo P = 0 b- todos os casos forem favoráveis nf = np = e P = 1 Logo 0  P  1 Exemplo lance o dado para tirar a face ”6”. Eventos possíveis 1,2,3,4,5 e 6 . O evento favorável só a face 6. P (6) = 1 / 6 = 0,166 A probabilidade de sair a face 5 é de 1 em 6 (total de eventos possíveis). P = 1/6

Incerteza do Jogador P= 1 => certeza total 0,7 – grau de incerteza antes que o evento ocorra Informação é a “quantidade de incerteza” Sobre a ocorrência de um símbolo, Que é anulada quando este símbolo ocorre. 0,3 grau de certeza (probabilidade que aconteça um evento) antes que o evento ocorra P = 0 => incerteza total Se a probabilidade é p=0,3, o grau de incerteza é 0,7. Quando o evento ocorre, passa p=0,3 para p=1

Introdução à Teoria da Informação Quanto maior o número de símbolos disponíveis na fonte ( isto é, sua variedade), maior será o grau de incerteza sobre qual símbolo será selecionado para envio. destinatário ? P( verde ) = 0,5

Introdução à Teoria da Informação Grau de liberdade: se todos os símbolos têm igual probabilidade de serem selecionados, a fonte possui o maior grau de liberdade possível na seleção.

Introdução à Teoria da Informação Informação e sua Medida. FONTE COM SÍMBOLOS MENSAGEM: conjunto de símbolos Fonte “X” , com um conjunto de símbolos ( x1, x2 ..xi )

Introdução à Teoria da Informação Variedade de Símbolos: a- alfabeto com “n” elementos. b - símbolo composto por uma combinação de “m” elementos dentre os “n”. Configurações possíveis => N = nm

Princípios de telecomunicações A fonte seleciona os símbolos ao produzir a mensagem. Para o observador externo, que desconhece a lógica da fonte, a escolha é aleatória. Pode-se associar a cada símbolo selecionado uma certa probabilidade de ocorrência.

Introdução à Teoria da Informação Quantidade de Informação inerente a um símbolo xi : I(xi) = f [ P (xi)] É importante observar que não há sentido em se falar em informação associada a um símbolo isolado e, sim, quando este pertence a um conjunto de símbolos onde há “um grau de liberdade” de escolha. Quando se fala em probabilidade de um evento, estamos falando a respeito de um evento que pertence a um conjunto bem determinado de eventos, aos quais se associa suas probabilidades. P(xi) = probabilidade de ocorrência.

Introdução à Teoria da Informação Esta função deve ter as seguintes propriedades: 1. Se P(xi) = 1 ENTÃO I (xI) = 0 2. Se P (xi) = 0 ENTÃO I ( xi ) =  3. I (xi ) é monotônica decrescente com P( xi) A função será: I (xi ) = - log 2 P (xi ) (bits) Algo totalmente improvável teria informação infinita ! BIT - binary digit : “The unit of selective information, i.e. the amount of information derived from the knowledge of the occurence of one of two equiprobable, exclusive and exhaustive events” CCITT livro verde - 1973 volume VIII Observar que: 1. A Probabilidade é um valor positivo, entre 0 e 1, 2. O sinal negativo garante um valor positivo à quantidade de informação. 3. A escolha da base define o valor numérico da informação, e decidiu-se conveniente a base 2, neste caso a unidade é chamada de Shannon.

Introdução à Teoria da Informação Dada uma fonte X, sabemos: Símbolo x1, x2, .... xn Probabilidade de Ocorrência: ..... P (xn ) Informação Própria do Símbolo... I (xn) A quantidade de informação de um evento (associado a uma mensagem) é definida como o logaritmo do inverso da probabilidade deste evento. I (xi ) = log 2 1 / P (xi ) Lei de Bernoulli:` A frequência relativa tem um valor bem próximo da probabilidade e se pode tomar a primeira pela segunda, sem grande erro, quando o número de experiências é suficientemente grande. Ex:Se jogarmos um dado 1000 vezes, a probabilidade de sair 6 é de 0,169. Este valor tem a maior probabilidade de ser igual a probabilidade do evento isolado ( ocorrer a face 6). Isto permite que se utilize a probabilidade de um evento isolado com a frequência relativa de sua ocorrência, verificada quando o número de experiências é grande.

Comunicação e Informação A informação é recebida pelo destinatário quando este identifica o símbolo recebido com um dos de seu alfabeto. A informação se transforma em comunicação quando os símbolos identificados pelo destinatário possuem um sentido interpretável por ele.

Comunicação e Informação em resumo! A equação de Shannon para relacionar a quantidade de informação (I) Com a probabilidade (p) é a seguinte: I = log2 (1 /p) I = quantidade de informação de um símbolo p = probabilidade da mensagem que se transmite log2 = logaritmo na base 2

Um conceito fundamental : ENTROPIA : é a medida da quantidade de informação presente num experimento (não em um símbolo apenas) randômico ou aleatório. Quanto maior a quantidade de informação de um experimento, maior será sua entropia.

Introdução à Teoria da Informação Para telecomunicações o que nos interessa é a quantidade de informação média ao longo do tempo para dimensionar os sistemas de telecomunicações.

Introdução à Teoria da Informação X FONTE M=[a,b,c...s] A a a a b b s s s s s s a a a s Ou seja : Dada uma fonte “X” atuando... Com M símbolos, com mj ocorrências, cada símbolo ocorrendo xj vezes; teremos assim uma quantidade “Q” total de informação.

Introdução à Teoria da Informação Problema: Quando a fonte era conhecida ( nosso dado com 6 faces) conhecíamos as probabilidades, como p(2) = 1/6. Mas numa fonte desconhecida como saber a probabilidade de um evento isolado?

Seja a experiência “lançamento de um dado 1000 vezes” E determinar a freqüência relativa do aparecimento da face 6. faces Resultados favoráveis Freqüência relativa 1 166 0,166 2 163 0,163 3 164 0,164 4 170 0,170 5 168 0,168 6 169 0,169 total 1000 1,000 P(6) = 1/6 0,167 Freqüência relativa do aparecimento de 6. Número total de ocorrência da face 6 = 169

lei fraca dos grandes números. Lei de Bernouilli lei fraca dos grandes números. O valor mais provável da freqüência relativa a ser encontrado, quando a experiência é realizada um grande número de vezes, é numericamente igual a probabilidade do evento isolado

QUANTIDADE de Informação gerada Q =  mi I (xi ) = n i =1 Q = quantidade de informação mi = número total de ocorrências de cada símbolo xi n = todos os diferentes símbolos da fonte. Se a fonte X com seu conjunto de símbolos {xj} a cada símbolo xj corresponde uma probabilidade de ocorrência P(xj ) e uma informação própria I ( xj ). Nos interessa a quantidade de informação liberada ao longo do tempo, em termos de média. Se a fonte manda um grande número de mensagens. Com M, o número total de símbolos, e mj o número total de ocorrências de cada símbolo xj . A quantidade total de informação Q será dada pela soma de todos os n diferentes símbolos possíveis da fonte. Lembrando da lei de Bernoulli, se o número M de símbolos for suficientemente grande, podemos tomar mj / M por P(xj)

Introdução à Teoria da Informação Q =  mi I (xi ) i =1 n M = número total de símbolos utilizados Lembrando a lei fraca dos grandes números, se M for suficientemente grande podemos tomar mi / M por P (xi) Então vamos dividir a expressão por M

Introdução à Teoria da Informação Lembrando que: I(xi) = - Log2 P ( xi ) Conteúdo total de informação n Q  P (xi ) I ( xi ) = HX) = M I = 1 Número total de símbolos H (X) Entropia

  ENTROPIA n H(x) = P (xi ) I ( xi ) I = 1 OU MELHOR: n H(x) = - = - P (xi ) log2 P ( xi ) I = 1

ATENÇÃO Não confudir o parâmetro I com o parâmetro H

Introdução à Teoria da Informação Um exemplo prático: a, b, c, d, e, f, g, h, i, j, l, m, n, o, p, q, r, s, t, u, v, x, z Observação: Você deve estar se perguntando pelas letras W, Y e K.Elas não pertencem mais ao nosso alfabeto.São usadas apenas em casos especiais

Introdução à Teoria da Informação As mensagens a serem transmitidas são compostas pelas 23 letras do alfabeto, (N =23) formando combinações aleatórias. Como as mensagens têm a mesma probabilidade, a ENTROPIA do sistema será: H = log2 N ou H = log2 23 H = 5 significa que necessitamos de 5 bits para codificar cada uma das letras do alfabeto.

Introdução à Teoria da Informação B E Ex.: alfabeto com elementos 0 e 1 e m = 5 25 = 32 Código telegráfico : Baudot L O

Introdução à Teoria da Informação A informação média ou entropia em uma fonte com m símbolos xi é máxima quando as probabilidades de seus símbolos forem equiprováveis. Considerando um gerador de sinais binarios, que se comporta como uma fonte produzindo uma sequência de símbolos simples, independentes e equiprováveis. P(x1) = P (x2) mas  (i=1 até 2 ) temos  P(xi) = 1 resulta P (xi) = 1 / n A informação própria de cada símbolo I (xi ) = - log2 P (xi ) = - log2 1/ n = - log2 n shannon A entropia H(X) =  P(xi ) . I ( xi ) = log2 n  P ( xi ). ( com i de 1 a n) H( X ) = log2 n Agora considerando v = log2 n bit H(X) = I(xi ) = v

Introdução à Teoria da Informação Em telecomunicações encontramos fontes que emitem símbolos binários ou bits. Cada bit assume dois estados: 0 ou 1 Logo temos P(0) e P(1) H(X) = -[P(1) log2 P(1) + P(0) log2 P(0)] shanonn/símbolo

Introdução à Teoria da Informação Se as ocorrências de (0) e (1) forem equiprováveis temos P(1) = P(0) =1/2 H(X) = 1 shannon/símbolo Ou 1 bit / símbolo

Introdução à Teoria da Informação Quanto todos os símbolos são equiprováveis a quantidade de informação média por símbolo é numericamente igual à quantidade de informação própria de cada símbolo e igual a variedade. H(X) = I(xi ) = v

Entropia Tendo calculado a Entropia de uma fonte e obtido: H(X) = 0,8 Isto significará que esta fonte em sua escolha de símbolos, com a finalidade de formar uma mensagem, estará com aproximadamente 80% de grau de liberdade.

Aplicação Dada uma fonte e calculamos sua entropia: Símbolos Aplicação fonte Dada uma fonte e calculamos sua entropia: H(X) = 7 sh / símbolo Isto nos indica que, em média, seus símbolos podem ser representados por 7 bits.

Princípios de telecomunicações O canal

Comunicação da fonte ao destino. Transdutor de Entrada mensagem Sinal de vídeo Transdutor De Saída Sistema de Comunicação Sinal de vídeo Fonte de Informação: Cena / imagem Mensagem recebida Mensagem: caracterização física da informação

Sistema de Comunicação digital simplificado destinatário Sistema De Comunicação Transdutor entrada Transdutor saída Codifi cador Trans- missor Canal de comunicação Decodi ficador Fonte Receptor Destino Sinal de entrada - mensagem Sinal a transmitir Sinal Codificação. binária Sinal de saída Sinal recebido

O canal Sempre que gerarmos informação pela seleção feita no alfabeto de uma fonte (codificador que alimenta o canal em certa velocidade), isto corresponderá a uma liberação de certa quantidade de bits/s lançados no canal (meio físico) pelo transmissor. transmissor receptor canal

O canal P ( yj/ xi ) ou P (xi / yj ) entrada saída fonte canal destino X=(xi) Y = ( yj ) P ( yj/ xi ) ou P (xi / yj ) ( P (yj,xi ) significa a probabilidade de se obter um yj na saída sendo enviado um xi )

O canal fonte canal destino fonte destino H(Y) Entropia no destino H(X) p X1=1 Y1 =1 q q p = 1 - q X2 =0 Y2 = 0 p

O canal É preciso fazer o dimensionamento da Capacidade do Canal de forma a suportar o fluxo de informação que lhe é oferecido. Sem ruído não há distorção, o que entra no canal será entregue por ele! Com ruído, o “1” pode ser recebido como “0”

As entropias presentes serão: O canal As entropias presentes serão: H(X) entropia na fonte, ou entrada do canal. H(Y) entropia no destino ou saída do canal H(X/Y) ou H(Y/X) dispersão provocadas por ruídos e distorções do canal, que acarretam erros nos símbolos e perda da informação. H(X;Y) entropia mútua entre entrada e saída (transinformação), que é a informação passada da fonte para o destino. H(X,Y) é a entropia conjunta, criada pelos símbolos da fonte e do destinatário tomados em conjunto.

O canal De fato desejamos a transinformação e queremos que ela seja máxima: H(X ; Y) = H(X) - H ( X / Y) sh/símb Canal sem ruído = H( X /Y ) = 0 Define-se: Capacidade máxima do canal C = Hmax (X;Y ) sh/símb

O canal Um canal sem ruído, não tem erro de símbolo transmitido, logo está sem perda: Neste caso especial: H(X /Y) = H (Y/X) = 0 H(X;Y) = H(X) = H(Y) = H(X,Y) sh/símb Sem ruído: H(X) = H(Y) = H(X;Y) - toda a informação na entrada do canal chega ao destinatário. Neste caso Hmax (X;Y) = Hmax(X) Então a Capacidade do canal será dada por: C = log2 N sh/símb

O Canal Capacidade de transmissão do canal 1. A fonte nos dá uma variedade de símbolo: V = log2 N ou ainda, v = m log2 n ( bit) No caso de uma fonte binária. Equiprovável, com elementos 0 e 1. V = 1 log2 2 = 1 bit Transmissor: 10 volts = bit “1” 0 volts = bit “0” Fonte + codif. Canal: (Par de fios) H(X) = - [P(1) log2 P(1) + P(0) log2 P(0) ] = 1 shanon/símbolo Cada símbolo será representado por unidades binárias ( bits), numericamente igual a entropia!

Capacidade de Transmissão do Canal TRANSMISSOR SINALIZA A LINHA COM DIFERENTES TENSÕES Canal = Linha física: pares de fios. TX RX V V 1 0 1 t1 t2 tempo tempo t2 t1 t1 + t1 t2 + t2   Tempo da transição de um estado para outro

O canal Variação dos Símbolos por unidade de tempo (velocidade de sinalização) entregue ao canal será a variabilidade Vs = v /  (bit/s) ( relação entre a variedade V dos símbolos produzidos pela fonte e o intervalo de tempo “” em que são produzidos)  Fonte binária

TRANSMISSÃO TELEGRÁFICA Teleimpressor: terminal a LINHA = canal Variação de corrente bateria I 1 +i a = 01011 t t ideal -i real

Princípios de telecomunicações Capacidade de Transmissão do Canal

Capacidade de Transmissão do Canal Além da análise estática shannon/ símbolo é preciso analisar dinamicamente a Vs = v /  Suponhamos uma fonte que produz M símbolos ao longo do tempo T e a cada símbolo corresponde o intervalo de tempo , teremos uma taxa de envio destes símbolos:  = T então Vs = M v bit/s M T

Capacidade de Transmissão do Canal Na prática o canal não consegue responder além de uma certa velocidade de transição do sinal. Existe um tempo mínimo [mín] para que o sistema responda a uma transição do sinal. v v t t

Capacidade de Transmissão do Canal No início das técnicas de transmissão de sinais elétricos ( transmissões telegráficas) observou-se que os sinais eram transmitidos, enviados pelo canal, mas chegavam distorcidos. Essa distorção se devia a esta duração mínima necessária, que levou a definição da faixa de passagem oferecida pelo meio.

Capacidade de Transmissão do Canal A pior condição do sinal entrante é a de que em cada intervalo mín ocorra uma transição. Para que o canal possa distinguir isto constatou-se que precisava ter um período de duração “T” mínimo, dado por: T = 2 mín Assim se definiu uma largura de faixa mínima, em Hertz, dada por: B = 1 2 mín 

Capacidade de Transmissão do Canal part 1 1 1 0 0 par O sinal telegráfico de um terminal teleimpressor se compõe de 1 pulso de partida com a duração e 20 ms; 5 pulsos binários portadores de Informação com a duração de 20 ms cada e 1 pulso de parada com a duração de 30 ms. Nesta condições toma-se para mín o menor valor, de 20 ms. Logo B = 1 / 2 mín = 1 / 2x20 x10-3 B = 25 Hz

Capacidade de Transmissão do Canal Visto que o símbolo possui a variedade dada por: v = log2 n max bits A velocidade máxima de transmissão do sinal será igual à máxima velocidade de sinalização que o canal aceita , ou seja: Vs = V = 1 log 2 n max bit/s. T mín

Capacidade de Transmissão do Canal Como este é o sinal mais crítico que se pode transmitir, esta grandeza vai medir a capacidade Ct de transmissão de sinal Ct = 1 log2 n max bit/s mín B = 1/ 2 mín Telegrafia = Capacidade = 50 bps 50 = log2 2 . 1/ mín B = 25 Hz Logo o mín = 1/50 = 0.02 s ou 20 ms

Princípios de Telecomunicações A presença do Ruído limitando a capacidade do Canal

Capacidade do Canal com Ruído É um sinal aleatório ao qual não se tem controle sobre sua forma. No processo de transmissão do sinal pelo canal observa-se sinais espúrios, aleatórios, que se somam ao sinal desejado.

Capacidade do Canal com Ruído Ruído branco: ocorre devido à agitação térmica onde elétrons livres apresentam um movimento aleatório e produzem uma corrente elétrica, quando se é observado em intervalos de tempo infinitamente pequenos. I(t) Esta corrente extremamente pequena, é uma corrente de natureza aleatória, com valores ora num sentido, ora noutro, fazendo com que ao longo do tempo se anulem. No entanto as potências oriundas não terão um valor médio nulo. O ruído térmico apresenta um espectro constante para todos os sistemas de telecomunicação. t

Capacidade do Canal com Ruído Agora se considerarmos um sinal elétrico sendo transmitido no canal; As variações no sinal podem ser analisadas como alterações em sua amplitude, percebidas entre dois instantes diferentes.

Capacidade do Canal com Ruído Mas a velocidade de transição do sinal encontra uma limitação prática, Em termos físicos existem elementos armazenadores de energia no canal que impedem cargas e descargas instantâneas. Estes componentes impõe um tempo mínimo “  “ para resposta física

Capacidade do Canal – limitações físicas A pior condição para o sinal entrante é aquela em que a cada intervalo “ mínimo“ ocorra uma transição, Figura 2 Figura 3 Figura 4 Figura 1 v t t t 1 0 1 t t

Capacidade do Canal com Ruído Contudo, os ruídos inerentes ao processo de transmissão impedem que se reconheça amplitudes a partir de um determinado valor. v sinal t t Sinal + ruído ruído t

Capacidade do Canal com Ruído Os níveis distinguíveis podem ser apresentados em função da relação sinal / ruído. Ruídos impedem reconhecer subdivisões de amplitude do sinal recebido nmax = s+r = 1 + s r r Níveis de amplitude s+r s r tempo mín

Capacidade do Canal com Ruído Consideremos ainda que mín se relaciona com a largura de faixa do sistema( B = 1/2 min) temos: Ct = 2 B log2 ( 1 + s / r) bit/s Ruído é um sinal complexo de natureza aleatória. Sistemas de Telecomunicações trabalham com sinais complexos Sinais complexos se somam em potência.

Capacidade do Canal com Ruído Se trabalharmos com a potência do sinal (S), a potência do ruído (R) e  si2 S =  si2 R =  ri2 nmax 2 = S + R = 1 + S = 1 + R  ri2 R si componentes individuais do sinal ( valor eficaz) Ri componentes individuais do ruído ( valor eficaz) nmax = ( 1 + S )1/2 R

Capacidade do Canal com Ruído Substituindo este novo resultado e a banda B de passagem chegamos a C = B log2 ( 1 + S ) bit/s Conhecida como a Lei de Shannon-Hartley e vai nos traduzir a velocidade de transmissão de informação ou capacidade de informação que o canal permite. R A capacidade do canal discreto, ocorre quando a fonte está casada com o canal. O resultado C = B log2 ( RSR +1 ) ( RSR = relação sinal ruído na saída do canal) Este resultado clássico da teoria da Informação, devido a Shannon - Hartley, fornece um limite superior para transmissão de informação em canais afetados por ruído Gaussiano.. Tenta-se, deste modo, otimizar um sistema de comunicações de modo que se tenha uma taxa de bits ttão próxima quanto possível de C. Se a capacidade do canal é menor que a taxa de bits enviada não será possível uma transmissão isenta de erros.

Capacidade do Canal com Ruído Lei de Shannon-Hartley C = B log2 ( 1 + S/R ) bit/s C = capacidade do canal - medida em bits por segundo B = banda do canal- medida em Hertz S/R = relação sinal ruído - geralmente dada em dB, decibéis relação logarítmica de potências, por exemplo: Sinal de voz S/N 30 dB = 1000 vezes

BIBLIOGRAFIA MELO, Jair Candido. Introdução à Teoria da Informação. MacGraw-Hill. Brasil. 1976 CARSON. A Bruce. Communication Systems. McGraw-Hill. Singapore. 1986. BARRADAS. Ovídio. Sistemas Analógicos-Digitais. Livros Técnicos e Científicos. Rio de Janeiro.1980 EPSTEIN Isaac. Teoria da Informação. Ática.S.Paulo. 1988. EDWARDS Elwyn. Introdução à Teoria da Informação. Cultirx. S. Paulo.1971