Carregar apresentação
A apresentação está carregando. Por favor, espere
PublicouAdelina Correia Sabrosa Alterado mais de 8 anos atrás
1
Conceitos básicos da teoria da informação e as medidas de desigualdade de Theil Cap. 4 – Distribuição de renda – Medidas de desigualdade e Pobreza – Rodolfo Hoffmann
2
Conteúdo informativo de uma mensagem Seja x a probabilidade de ocorrência do evento A Vamos olhar para a relação entre essa probabilidade e o conteúdo informativo da mensagem “O evento A ocorreu”. Se a probabilidade de ocorrência do evento A fosse x = 1, então, a mensagem acima não traria nenhuma novidade. Ideia: quanto menor for o valor de x, maior será o conteúdo informativo da mensagem “O evento A ocorreu.” Quando x 0, o conteúdo informativo
3
Conteúdo informativo de uma mensagem h(x) conteúdo informativo de uma mensagem Função log foi escolhida devido a propriedade de aditividade no caso de dois eventos independentes h(x 1,x 2 ) = h(x 1 ) + h(x 2 )
4
Conteúdo informativo de uma previsão Suponha que a probabilidade de chuva seja igual a x = 0,2 h(x) = ln(1/0,2) = 1,61 – valor informativo da informação de que “choveu” Vamos supor também que no dia anterior, vc assistiu o noticiário que afirmou que no dia seguinte iria chover. Admita que isso tenha alterado a probabilidade de chuva para y = 0,6 h(y) = ln(1/0,6) = 0,51 – valor informativo da mensagem de que “choveu”
5
O conteúdo informativo da previsão h(x) – h(y) = ln(1/x) – ln(1/y) = ln(y/x) Ideia = com o conteúdo informativo que recebemos da previsão, ficamos menos ‘surpresos’ com a chuva. Quando uma mensagem está sujeita a erro, como no caso de uma previsão, o conteúdo informativo da previsão: h = log(y/x) x = é a probabilidade a priori e y = é a probabilidade a posteriori [a definição anterior pode ser vista como um caso particular em que y=1 -> que seria o conteúdo informativo de uma mensagem certa]
6
A esperança do conteúdo informativo de uma mensagem e a entropia de uma distribuição Considere n possíveis eventos A i i= 1,..., n exaustivos e mutuamente exclusivos, aos quais associamos as probabilidades x i A esperança matemática do conteúdo informativo da mensagem “ocorreu Ai”, isto é, a informação esperada é:
7
A esperança do conteúdo informativo de uma mensagem e a entropia de uma distribuição Para x i = 0 Para 0 < x i 1, temos 1/x i ≥ 1 e log(1/x i ) ≥ 0 Quando H(x) será igual a zero? Se resolvermos o lagrangeano para equação acima, encontraremos o máximo de H(x) = log n Portanto,
8
A esperança do conteúdo informativo de uma mensagem e a entropia de uma distribuição Perguntas: Quando H(x) será igual a zero? Quando H(x) será igual ao máximo?
9
Entropia da distribuição A esperança do conteúdo informativo para uma distribuição E[H(x)] é chamada entropia da distribuição. A entropia da distribuição é máxima (ou seja, há um máximo de incerteza a respeito do que pode ocorrer) quando todos os possíveis eventos são igualmente prováveis Física = aumento da entropia = aumento da desordem no sistema...
10
Informação esperada de uma mensagem incerta n possíveis eventos A i com probabilidades x i consideremos uma mensagem incerta (uma previsão ou mensagem duvidosa) que transforma as probabilidades a priori x i em probabilidades a posteriori y i (y i é a probabilidade de ocorrência do evento A i depois de recebida a mensagem). A esperança do conteúdo informativo da mensagem é:
11
Observação 1 De fato, o conteúdo informativo de uma mensagem certa [h(x)=log(1/x)] que definimos antes, é um caso particular em que a probabilidade a posteriori é igual a 1 para um evento e todas as outras são iguais a zero, isto é, y j =1 e y k = 0 para todo k j
12
Observação 2 É possível mostrar que: Note que I(y:x) tende ao infinito quando uma das probabiliddes a priori (x i ) tende a zero e a correspondente probabilidade a posteriori (y i ) é positiva.
13
As medidas de desigualdade de Theil Considere uma população onde todos recebem uma fração não-negativa (yi >=0, com i= 1, 2,..., n) da renda total. Os valores de y i têm as mesmas propriedades que as probabilidades associadas a um universo de eventos.
14
Entropia da distribuição de renda No caso da perfeita igualdade da distribuição de renda, todos recebem a mesma fatia da renda y i = 1/n a entropia é máxima; No caso da perfeita desigualdade da distribuição de renda, existe uma pessoa que fica com toda a renda, y i =1 para algum i H(y) = 0 Entropia é uma medida do grau de igualdade da distribuição.
15
Entropia da distribuição de renda Depois de definir a entropia da distribuição, Theil (1967) argumenta que é mais interessante trabalhar com a medida de desigualdade que se obtém fazendo = ‘valor máximo da entropia’ – ‘valor observado da entropia’ T = log n – H(y) =
17
Para uma sociedade perfeitamente igualitária, T=0 Y i =1/n Para uma sociedade totalmente desigual, T = log n
18
Note que: T = log n – H(y) = Probabilidades a priori== fraçao da população correspondente a cada pessoa Fração da renda apropriada por cada indivíduo Indice T-Theil esperança do valor informativo de uma mensagem incerta que transforma frações da população em frações da renda Se yi = 1/n T = 0 não há desigualdade
19
Índice L-Theil Índice L-Theil esperança do valor informativo de uma mensagem incerta que transforma frações da renda em frações da população Para uma sociedade perfeitamente igualitária, L=0 Y i =1/n Por outro lado, se Y i tende a zero para qq i, L tende a
20
Medidas em função das rendas individuais x i = renda da i-ésima pessoa = renda média y i = fração da renda assegurada pela i-ésima pessoa =
21
Medidas em função das rendas individuais – T-Theil
22
Medidas em função das rendas individuais – L-Theil
23
Decomposição O índices Theil podem ser decompostos em uma medida de desigualdade entre-grupos e uma média ponderada das medidas de desigualdade intra-grupos. K grupos n h = número de elementos do grupo h N= tamanho da população tamanho relativo dos grupos =
24
Decomposição
25
Decomposição T-Theil Note que: caso haja perfeita igualdade dentro dos grupos T = Te
26
Decomposição L-Theil Note que: caso haja perfeita igualdade dentro dos grupos L = Le
Apresentações semelhantes
© 2024 SlidePlayer.com.br Inc.
All rights reserved.