A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

John Fiske (Introduction to Communication Studies) aplica os conceitos de redundância e entropia ao layout de um jornal popular inglês.

Apresentações semelhantes


Apresentação em tema: "John Fiske (Introduction to Communication Studies) aplica os conceitos de redundância e entropia ao layout de um jornal popular inglês."— Transcrição da apresentação:

1

2 John Fiske (Introduction to Communication Studies) aplica os conceitos de redundância e entropia ao layout de um jornal popular inglês.

3

4 A foto mostra o confronto entre policiais ingleses e manifestantes negros em Londres.

5 A mulher em primeiro plano (bem vestida, observa preconceituosamente? - Fiske) Ela, no centro da cena, está sendo agarrada por um policial e outro avança em sua direção. Ela ocupa o centro da cena.

6 A fotografia foi editada na primeira página do Daily Mirror.

7 Fiske considera a situação – policiais agredindo manifestantes negros – entrópica, isto é, improvável para o senso comum, segundo o qual negros são arruaceiros e policiais ingleses defensores da lei. Mas terá a polícia tanto prestígio para o homem comum na Inglaterra?

8 A interpretação permite vários questionamentos:

9 A foto, aberta, recebe a legenda Confrontação e o título Manifestantes negros chocam-se com a polícia de Londres. Outra foto, menor, no canto da página, mostra o transporte de um policial ferido para a ambulância

10 Segundo Fiske, a transformação da agressão policial em confronto e a informação suplementar de que houve um soldado ferido representam uma intervenção no sentido de reafirmar o senso comum de que os negros são perigosos e a polícia protege os cidadãos desse perigo.

11 A edição teria transformado o entrópico em redundante.

12 1. Pode-se julgar uma situação prolongada por um flagrante?

13 2. Há razões técnicas para a edição?

14 3. Há intenções assim sutis na edição de uma página de jornal?

15

16 Tomemos a série das primeiras oito letras do alfabeto: ABCDEFGH Em um jogo de adivinhação, trata-se de saber quantas perguntas serão necessárias para identificar uma letra qualquer dessas – seja o A, o B, o C, o D, o E, o F, o G ou o H, selecionada pelo parceiro.

17 Perguntas do tipo é esta?, em qualquer ordem – do começo para o fim, do fim para o começo ou em série aleatória –, permitirão que se chegue ao resultado, em média, com quatro perguntas.

18 Seguindo-se a melhor estratégia possível, no entanto, chega-se ao resultado com três perguntas. Suponhamos que seja a letra D:

19 1 ª - A letra escolhida fica antes do E? ABCD EFGH - Sim. 2 a - A letra escolhida fica antes do C? AB CD - Não. 3 ª - A letra escolhida fica antes do D? C D - Não. - É o D.

20 Se duplicarmos o número de letras (para 16), o resultado, pela estratégia ótima, será alcançado com quatro perguntas:

21 1 ª - A letra escolhida fica antes do I? ABCDEFGH IJKLMNOP - Sim. 2 ª - A letra escolhida fica antes do E? ABCD EFGH - Sim.

22 3 ª - A letra escolhida fica antes do C? AB CD - Não. 4 ª - A letra escolhida fica antes do D? C D - Não. - É o D.

23 Se duplicarmos novamente o número de letras (para 32), recorrendo a caracteres gregos, o número de perguntas necessárias, pela estratégia ótima, será cinco.

24 Verifiquem: ABCDEFGHIJKLMNOP QRSTUVWXYZ.ΦΓΨΠ. Comparando o número de letras n e o número de escolhas H, montamos uma tabela:

25 Grandeza do conjunto n Número de perguntas H

26 A relação entre a grandeza de um conjunto n e o número de escolhas H para se chegar a um elemento desse conjunto, em situação de equiprobabilidade, é: n = 2 H ou H = log2 n

27 H mede a incerteza ou entropia de um conjunto. Seu valor será inteiro para qualquer valor do conjunto que pertença à progressão geométrica 1,2,4,8,16.

28 Consideremos, agora, situações não equiprováveis – isto é, em que há certa tendenciosidade.

29 Por exemplo, letras recortadas de um jornal. Admitindo-se que há mais letras A do que letras B e estas muito mais do que Z, a distribuição do conjunto de letras será desigual ou, em termos matemáticos, ponderada.

30 Supondo que existem duas letras B para cada letra C ou D e duas letras A para cada letra B, teríamos: AAAABBCD

31 O número de perguntas para encontrar uma letra escolhida ao acaso na série acima varia: uma se for A, duas se for B, três se forem C ou D. Calculemos o número médio de perguntas – que corresponde, como vimos, à entropia considerando os fatores de ponderação:

32 SoluçãoNúmero de Perguntas Fator de Ponderação ABCDABCD /2 1/4 1/8

33 Para isso, somaremos os produtos dos números de perguntas pelo fator de ponderação de cada letra: (1.1/2) + (2. 1/4) + (3. 1/8) + (3. 1/8) = 1/2 + 1/ 2 + 3/8 + 3/8 = 1 3/4

34 Observe-se na tabela que o número de perguntas necessárias para se encontrar cada letra é igual ao logaritmo base dois do inverso do fator de ponderação – ou seja, ao fator de ponderação elevado a –1: 1 é o logaritmo de 2, 2 o de 4 e 3 o de 8.

35 Os produtos alinhados acima correspondem, cada um, à multiplicação do fator de ponderação pelo logaritmo binário do inverso dele mesmo – ou dele mesmo elevado a –1.

36 A entropia é a soma desses produtos, ou seja: H = (Σ pi.I)/ log2 pi ou H = (Σ pi.I). (log2 pi) -1 em que p é o fator de ponderação e i um elemento qualquer i do conjunto.

37

38 A quantidade de informação expressa em bits contida em determinada solução é o número de perguntas necessárias para se chegar a essa solução.

39 Esse número é, como vimos, igual ao logaritmo da base 2 do inverso da probabilidade desse evento em particular, ou: I = log 2 1/pi ou I = log 2 pi -1 em que pi é a probabilidade do evento i em particular.

40 A unidade em que se expressa a quantidade de informação é o bit, trocadilho criado por Tukey a partir da expressão binary digit (dígito binário). Bit, em inglês, quer dizer pedaço.

41 A condição binária do bit remete à álgebra da lógica, criada por George Boole, nos livros A análise matemática da Lógica, de 1847, e Investigações sobre as leis do pensamento, de Boole parte da concepção de que a interseção dos conjuntos descritos por duas proposições, P e Q, é igual o produto de P e Q: P Q = P. Q, ou PQ

42 Observa, então, que a classe dos indivíduos que são eles mesmos é igual a si mesma (a classe dos indivíduos ingleses que são ingleses é a classe dos indivíduos ingleses) e que, portanto, PP = P

43 Isso apenas acontece, matematicamente, para os valores 1 e 0 de P. Por isso, na álgebra de Boole, os dois únicos valores reconhecidos são 0 e 1, representando, o primeiro, o conjunto vazio e o segundo o conjunto universo, ou universo do discurso.

44 Tomemos a afirmação hoje é sexta-feira. Qual a quantidade de informação que ela contém?

45 Depende. Se sabemos que ontem foi quinta, a resposta é: I = log 2 1 = 0 bits

46 Se temos que escolher entre os dias de trabalho, de segunda a sexta, a resposta é: I = log 2 5 = 2,32 bits

47 Se o universo é toda a semana, então: I = log 2 7 = 2,81 bits

48

49 A quantidade de informação expressa em bits de um evento singular é o número de escolhas binárias para se chegar a esse evento. Já a quantidade de informação de uma série ou conjunto de eventos é tão maior quanto mais esses eventos sejam independentes entre si, não se articulem uns com os outros.

50 A informação é igual à entropia ou desordem da série ou conjunto, o que significa dizer que há mais informação em uma série aleatória do que em qualquer série ordenada.

51 No entanto, o cérebro humano procura captar o máximo de informação com o mínimo de custo. Isso o leva a selecionar ordenações no mundo real para a percepção – por exemplo, para reconhecer e, portanto, dar nomes genéricos às coisas.

52 A forma ou Gestalt (plural Gestalten) reúne eventos ou elementos (gráficos, sonoros etc.) com alguma relação entre si, seja espacial (funções matemáticas), seja por semelhança, causa / conseqüência, etc. As formas mais articuladas (boas) serão mais facilmente percebidas

53 O processo do pensamento parte da realidade para, abstraindo o que ela tem de singular, torná-la inteligível, isto é, agrupá-la em conceitos genéricos.

54 A redundância reduz a quantidade de informação (ou torna a mensagem mais extensa, com a mesma quantidade de informação); envolve, entre outros mecanismos possíveis, a repetição, a simetria e a analogia.

55 Tudo aquilo que, na comunicação, não corresponde à mensagem (ao que se pretendeu comunicar) é chamado de ruído. Pode ser um ruído branco, desordenado (entrópico), como a cintilação no televisor quando não há emissora no canal; ou um ruído colorido, quando apresenta ordenação própria, como acontece nas linhas cruzadas.

56 A redundância reduz a possibilidade de o ruído afetar a percepção da mensagem.

57 Para a avaliação da quantidade de redundância deve-se considerar, por um lado, o custo do ruído (o prejuízo que ele pode causar) e, por outro, o grau de entropia ou imprevisibilidade da mensagem (maior, por exemplo, em códigos alfanuméricos, como aqueles que identificam reservas de passagens aéreas ou itens de um catálogo).

58 Ruídos, correspondendo a erros, podem significar, no entanto, enriquecimento da informação.

59 É o caso das mutações que, selecionadas, vão adaptando espécies biológicas ao habitat, ou de inserções do acaso na pesquisa científica – como a que levou à descoberta dos antibióticos.

60 Geralmente relaciona-se ruído ao fundo e mensagem ao primeiro plano. No entanto, o ruído pode ser capaz de competir com a mensagem – o primeiro plano com o fundo, como acontece em Céu e Inferno (gravura), de Maurits Escher.

61

62


Carregar ppt "John Fiske (Introduction to Communication Studies) aplica os conceitos de redundância e entropia ao layout de um jornal popular inglês."

Apresentações semelhantes


Anúncios Google