Redundância e Entropia

Slides:



Advertisements
Apresentações semelhantes
1- É O CRIADOR DA TEORIA DA INFORMAÇÃO George Boole Blase Pascal V
Advertisements

ANÁLISE DISCRIMINANTE
Lógica Difusa (Fuzzy). Lógica tradicional x Lógica difusa Lógica tradicional (Aristóteles) –Uma proposição = dois estados possíveis (V ou F) –Pode ser.
Nice Maria Americano da Costa
MÉTODOS MATEMÁTICOS EM BIOLOGIA
Sinais e Sistemas – Capítulo 4
FUNÇÕES Em muitas situações práticas o valor de uma quantidade pode depender do valor de uma segunda quantidade. As funções surgem quando uma quantidade.
Ciência e Compreensão da Realidade. Tipos de Conhecimento.
EQUAÇÕES POLINOMIAIS Prof. Marlon.
Unidades de Armazenamento
Portfólio de Matemática
Filosofia
Métodos de Demonstração
CONSCIÊNCIA CRÍTICA E FILOSOFIA
Site: Estatística Prof. Edson Nemer Site:
ÉMILE DURKHEIM ( ): TEORIA DOS FATOS SOCIAIS
Teoria da Informação Profa. Lillian Alvares
Independência Estatística
Lógica Proposicional Caderno de Exercícios.
Estatística Para um dado conjunto de dados, podemos calcular as seguintes grandezas: 1) Medidas de posição 2) Medidas de dispersão 3) Parâmetros de simetria.
O que é? Para que serve? Filosofia Prof. Joaquim Célio de Souza.
GEOMETRIA AXIOMÁTICA, SEGMENTOS DE RETA
Fábio de Oliveira Borges
Aula 1 Objetivos Conceituar e resolver problemas matemáticos.
INTRODUÇÃO À ANÁLISE COMBINATÓRIA
1 - Equações Diferenciais Ordinárias
MATEMÁTICA APLICADA REVISÃO BÁSICA.

PROBABILIDADE.
CONJUNTO Um conjunto se pode entender como uma coleção ou agrupamento bem definido de objetos de qualquer classe. Os objetos que formam um conjunto são.
Introdução à Lógica Jeneffer Ferreira
PROGRESSÕES GEOMÉTRICAS
Matemática Matriz Inversa
Matemática e suas Tecnologias - Matemática PROBABILIDADE CONDICIONAL
LEMA 1 Utilização de material concreto no Ensino de Matemática
Campus de Caraguatatuba Aula 9: Noções Básicas sobre Erros (3)
Comunicação & Expressão Profª Drª Louise Lage Módulo 4
NÓS, OS AGNÓSTICOS LIVRO ALCOÓLICOS ANÔNIMOS - CAPÍTULOS 4.
Medidas de localização
Funções Caderno de Exercícios 2ª aula Nome
Produção de texto: Texto de opinião Definição Planificação Estrutura
Sistemas Microprocessados e Microcontrolados
Ferramentas apresentadas
Equações do 1o grau com duas incógnitas
Fundamentos de linguagens de programação
Gestaltismo ..
Tipos de Dados Todo o trabalho realizado por um computador é baseado na manipulação das informações contidas em sua memória. Estas informações podem.
INFERÊNCIA ESTATÍSTICA PROPORÇÃO POPULACIONAL p
Testes de Hipóteses.
As folhas de papéis gráficos e a semelhança de polígonos
DISTRIBUIÇÃO BINOMIAL
Cálculo de Probabilidades Parte 2
Processos de produção textual Profª Margarete Apª Nath Braga.
Álgebra Booleana e Circuitos Lógicos Em 1854, George Boole introduziu o formalismo que até hoje se usa para o tratamento sistemático da lógica, que é.
ESTATÍSTICA.
INTRODUÇÃO AO CÁLCULO CONJUNTOS NUMERICOS.
A FUNDAMENTAÇÃO METAFÍSICA DOS COSTUMES. O Homem deve também acreditar no Homem Boa ideia…! Assim já posso ir de férias.
CEPZ1 – 2015 – AULA 09 PROFESSORA: BRUNA CAVALLINI E RODRIGUES
CEPZ1 – 2015 – AULA 06 PROFESSORA: BRUNA CAVALLINI E RODRIGUES
Prof.: Jean Carlo Mendes
MATEMÁTICA E SUAS TECNOLOGIAS
MATEMÁTICA E SUAS TECNOLOGIAS Ensino Médio, 3º Ano
Professor: Gerson Leiria Nunes.  Correlação de sinais  Correlação cruzada  Exemplo correlação  Autocorrelação  Propriedades da correlação  Exemplo.
ANÁLISE COMBINATÓRIA 3º ANO
Inferência 1:Estimação de Parâmetros Relembrando o Teorema Central do Limite Da aula anterior: a) Os estimadores da média e da s 2 são não viciados e de.
Aula 4 Bioestatística Probabilidade para variáveis aleatórias.
Questionário (Básico) Autor: Skyup Informática. Atividade - Questionário O módulo permite criar uma série de questões, que deverão ser respondida pelos.
Conceitos básicos da teoria da informação e as medidas de desigualdade de Theil (1967) Cap. 4 – Distribuição de renda – Medidas de desigualdade e Pobreza.
Utiliza-se a MoP para a análise da assimetria
Psicologia Social É o estudo científico de manifestações comportamentais de caráter situacional, suscitadas pela interação de uma pessoa com outras pessoas.
Transcrição da apresentação:

Redundância e Entropia

John Fiske (Introduction to Communication Studies) aplica os conceitos de redundância e entropia ao layout de um jornal popular inglês.

A foto mostra o confronto entre policiais ingleses e manifestantes negros em Londres.

A mulher em primeiro plano (“bem vestida”, observa preconceituosamente A mulher em primeiro plano (“bem vestida”, observa preconceituosamente? - Fiske) Ela, no centro da cena, está sendo agarrada por um policial e outro avança em sua direção. Ela ocupa o centro da cena.

A fotografia foi editada na primeira página do Daily Mirror.

Fiske considera a situação – policiais agredindo manifestantes negros – entrópica, isto é, improvável para o senso comum, segundo o qual negros são arruaceiros e policiais ingleses defensores da lei. Mas terá a polícia tanto prestígio para o homem comum na Inglaterra?

A interpretação permite vários questionamentos:

A foto, aberta, recebe a legenda “Confrontação” e o título “Manifestantes negros chocam-se com a polícia de Londres”. Outra foto, menor, no canto da página, mostra o transporte de um policial ferido para a ambulância

Segundo Fiske, a transformação da agressão policial em “confronto” e a informação suplementar de que houve um soldado ferido representam uma intervenção no sentido de reafirmar o senso comum de que os negros são perigosos e a polícia protege os cidadãos desse perigo.

A edição teria transformado o entrópico em redundante.

1. Pode-se julgar uma situação prolongada por um flagrante?

2. Há razões técnicas para a edição?

3. Há intenções assim sutis na edição de uma página de jornal?

Medindo Entropia e Informação

Tomemos a série das primeiras oito letras do alfabeto: ABCDEFGH Em um jogo de adivinhação, trata-se de saber quantas perguntas serão necessárias para identificar uma letra qualquer dessas – seja o A, o B, o C, o D, o E, o F, o G ou o H, selecionada pelo parceiro.

Perguntas do tipo “é esta Perguntas do tipo “é esta?”, em qualquer ordem – do começo para o fim, do fim para o começo ou em série aleatória –, permitirão que se chegue ao resultado, em média, com quatro perguntas.

Seguindo-se a melhor estratégia possível, no entanto, chega-se ao resultado com três perguntas. Suponhamos que seja a letra D:

1 ª - A letra escolhida fica antes do E? ABCD EFGH - Sim. 2 a - A letra escolhida fica antes do C? AB CD - Não. 3 ª - A letra escolhida fica antes do D? C D - É o D.

Se duplicarmos o número de letras (para 16), o resultado, pela estratégia ótima, será alcançado com quatro perguntas:

1 ª - A letra escolhida fica antes do I? ABCDEFGH IJKLMNOP - Sim. 2 ª - A letra escolhida fica antes do E? ABCD EFGH

3 ª - A letra escolhida fica antes do C? AB CD - Não. 4 ª - A letra escolhida fica antes do D? C D - É o D.

Se duplicarmos novamente o número de letras (para 32), recorrendo a caracteres gregos, o número de perguntas necessárias, pela estratégia ótima, será cinco.

Verifiquem: ABCDEFGHIJKLMNOP QRSTUVWXYZ .ΦΓΨΠ . Comparando o número de letras n e o número de escolhas H, montamos uma tabela:

Grandeza do conjunto n Número de perguntas H 1 2 4 8 16 3

A relação entre a grandeza de um conjunto n e o número de escolhas H para se chegar a um elemento desse conjunto, em situação de equiprobabilidade, é: n = 2H ou H = log2 n

H mede a incerteza ou entropia de um conjunto H mede a incerteza ou entropia de um conjunto. Seu valor será inteiro para qualquer valor do conjunto que pertença à progressão geométrica 1,2,4,8,16.

Consideremos, agora, situações não equiprováveis – isto é, em que há certa tendenciosidade.

Por exemplo, letras recortadas de um jornal Por exemplo, letras recortadas de um jornal. Admitindo-se que há mais letras A do que letras B e estas muito mais do que Z, a distribuição do conjunto de letras será desigual ou, em termos matemáticos, ponderada.

Supondo que existem duas letras B para cada letra C ou D e duas letras A para cada letra B, teríamos: AAAABBCD

O número de perguntas para encontrar uma letra escolhida ao acaso na série acima varia: uma se for A, duas se for B, três se forem C ou D. Calculemos o número médio de perguntas – que corresponde, como vimos, à entropia considerando os fatores de ponderação:

Solução Número de Perguntas Fator de Ponderação A B C D 1 2 3 1/2 1/4 1/8

Para isso, somaremos os produtos dos números de perguntas pelo fator de ponderação de cada letra: (1 .1/2) + (2 . 1/4) + (3. 1/8) + (3 . 1/8) = 1/2 + 1/ 2 + 3/8 + 3/8 = 1 3/4

Observe-se na tabela que o número de perguntas necessárias para se encontrar cada letra é igual ao logaritmo base dois do inverso do fator de ponderação – ou seja, ao fator de ponderação elevado a –1: 1 é o logaritmo de 2, 2 o de 4 e 3 o de 8.

Os produtos alinhados acima correspondem, cada um, à multiplicação do fator de ponderação pelo logaritmo binário do inverso dele mesmo – ou dele mesmo elevado a –1.

A entropia é a soma desses produtos, ou seja: H = (Σ pi.I)/ log2 pi ou H = (Σ pi.I) . (log2 pi)-1 em que p é o fator de ponderação e i um elemento qualquer i do conjunto.

Quantidade de Informação

A quantidade de informação expressa em bits contida em determinada solução é o número de perguntas necessárias para se chegar a essa solução.

Esse número é, como vimos, igual ao logaritmo da base 2 do inverso da probabilidade desse evento em particular, ou: I = log2 1/pi ou I = log2 pi-1 em que pi é a probabilidade do evento i em particular.

A unidade em que se expressa a quantidade de informação é o bit, trocadilho criado por Tukey a partir da expressão binary digit (dígito binário). Bit, em inglês, quer dizer “pedaço”.

A condição binária do bit remete à álgebra da lógica, criada por George Boole, nos livros A análise matemática da Lógica, de 1847, e Investigações sobre as leis do pensamento, de 1854. Boole parte da concepção de que a interseção dos conjuntos descritos por duas proposições, P e Q, é igual o produto de P e Q: P ∩Q = P . Q , ou PQ

Observa, então, que a classe dos indivíduos que são eles mesmos é igual a si mesma (a classe dos indivíduos ingleses que são ingleses é a classe dos indivíduos ingleses) e que, portanto, PP = P

Isso apenas acontece, matematicamente, para os valores 1 e 0 de P Isso apenas acontece, matematicamente, para os valores 1 e 0 de P. Por isso, na álgebra de Boole, os dois únicos valores reconhecidos são 0 e 1, representando, o primeiro, o conjunto vazio e o segundo o conjunto universo, ou universo do discurso.

Tomemos a afirmação “hoje é sexta-feira” Tomemos a afirmação “hoje é sexta-feira”. Qual a quantidade de informação que ela contém?

Depende. Se sabemos que ontem foi quinta, a resposta é: I = log2 1 = 0 bits

Se temos que escolher entre os dias de trabalho, de segunda a sexta, a resposta é: I = log2 5 = 2,32 bits

Se o universo é toda a semana, então: I = log2 7 = 2,81 bits

Ruído, Redundância e Gestalt

A quantidade de informação expressa em bits de um evento singular é o número de escolhas binárias para se chegar a esse evento. Já a quantidade de informação de uma série ou conjunto de eventos é tão maior quanto mais esses eventos sejam independentes entre si, não se articulem uns com os outros.

A informação é igual à entropia ou desordem da série ou conjunto, o que significa dizer que há mais informação em uma série aleatória do que em qualquer série ordenada.

No entanto, o cérebro humano procura captar o máximo de informação com o mínimo de custo. Isso o leva a selecionar ordenações no mundo real para a percepção – por exemplo, para reconhecer e, portanto, dar nomes genéricos às coisas.

A forma ou Gestalt (plural Gestalten) reúne eventos ou elementos (gráficos, sonoros etc.) com alguma relação entre si, seja espacial (funções matemáticas), seja por semelhança, causa / conseqüência, etc. As formas mais articuladas (boas) serão mais facilmente percebidas

O processo do pensamento parte da realidade para, abstraindo o que ela tem de singular, torná-la inteligível, isto é, agrupá-la em conceitos genéricos.

A redundância reduz a quantidade de informação (ou torna a mensagem mais extensa, com a mesma quantidade de informação); envolve, entre outros mecanismos possíveis, a repetição, a simetria e a analogia.

Tudo aquilo que, na comunicação, não corresponde à mensagem (ao que se pretendeu comunicar) é chamado de ruído. Pode ser um ruído branco, desordenado (entrópico), como a cintilação no televisor quando não há emissora no canal; ou um ruído colorido, quando apresenta ordenação própria, como acontece nas linhas cruzadas.

A redundância reduz a possibilidade de o ruído afetar a percepção da mensagem.

Para a avaliação da quantidade de redundância deve-se considerar, por um lado, o custo do ruído (o prejuízo que ele pode causar) e, por outro, o grau de entropia ou imprevisibilidade da mensagem (maior, por exemplo, em códigos alfanuméricos, como aqueles que identificam reservas de passagens aéreas ou itens de um catálogo).

Ruídos, correspondendo a erros, podem significar, no entanto, enriquecimento da informação.

É o caso das mutações que, selecionadas, vão adaptando espécies biológicas ao habitat, ou de inserções do acaso na pesquisa científica – como a que levou à descoberta dos antibióticos.

Geralmente relaciona-se ruído ao fundo e mensagem ao primeiro plano Geralmente relaciona-se ruído ao fundo e mensagem ao primeiro plano. No entanto, o ruído pode ser capaz de competir com a mensagem – o primeiro plano com o fundo, como acontece em Céu e Inferno (gravura), de Maurits Escher.