Conceitos básicos da teoria da informação e as medidas de desigualdade de Theil (1967) Cap. 4 – Distribuição de renda – Medidas de desigualdade e Pobreza – Rodolfo Hoffmann
Conteúdo informativo de uma mensagem Seja x a probabilidade de ocorrência do evento A Vamos olhar para a relação entre essa probabilidade e o conteúdo informativo da mensagem “O evento A ocorreu”. Se a probabilidade de ocorrência do evento A fosse x = 1, então, a mensagem acima não traria nenhuma novidade. Ideia: quanto menor for o valor de x, maior será o conteúdo informativo da mensagem “O evento A ocorreu.” Quando x 0, o conteúdo informativo
Conteúdo informativo de uma mensagem Por definição: h(x) conteúdo informativo de uma mensagem é dado por: Função log foi escolhida devido a propriedade de aditividade no caso de dois eventos independentes h(x 1,x 2 ) = h(x 1 ) + h(x 2 )
Conteúdo informativo de uma previsão Suponha que a probabilidade de chuva seja igual a x = 0,2 h(x) = ln(1/0,2) = 1,61 – valor informativo da informação de que “choveu” Vamos supor também que no dia anterior, vc assistiu o noticiário que afirmou que no dia seguinte iria chover. Admita que isso tenha alterado a probabilidade de chuva para y = 0,6 h(y) = ln(1/0,6) = 0,51 – valor informativo da mensagem de que “choveu”
O conteúdo informativo da previsão h(x) – h(y) = ln(1/x) – ln(1/y) = ln(y/x) Ideia = com o conteúdo informativo que recebemos da previsão, ficamos menos ‘surpresos’ com a chuva. Quando uma mensagem está sujeita a erro, como no caso de uma previsão, o conteúdo informativo da previsão: h = log(y/x) x = é a probabilidade a priori, ou seja, antes de receber a mensagem y = é a probabilidade a posteriori
A esperança do conteúdo informativo de uma mensagem e a entropia de uma distribuição Considere n possíveis eventos A i i= 1,..., n exaustivos e mutuamente exclusivos, aos quais associamos as probabilidades x i A esperança matemática do conteúdo informativo da mensagem “ocorreu Ai”, isto é, a informação esperada é:
A esperança do conteúdo informativo de uma mensagem e a entropia de uma distribuição Para x i = 0 Para 0 < x i 1, temos 1/x i ≥ 1 e log(1/x i ) ≥ 0 Quando H(x) será igual a zero? Quando uma das probabilidades é 1 e as demais 0. Se resolvermos o lagrangeano para equação acima, encontraremos o máximo de H(x) = log n Portanto,
Lagrangeano
A esperança do conteúdo informativo de uma mensagem e a entropia de uma distribuição Perguntas: Quando H(x) será igual a zero? Quando H(x) será igual ao máximo? 0<= H(x) <= log n
Entropia da distribuição A esperança do conteúdo informativo para uma distribuição H(x) é chamada entropia da distribuição. A entropia da distribuição é máxima (ou seja, há um máximo de incerteza a respeito do que pode ocorrer) quando todos os possíveis eventos são igualmente prováveis.
Informação esperada de uma mensagem incerta n possíveis eventos A i com probabilidades x i consideremos uma mensagem incerta (uma previsão ou mensagem duvidosa) que transforma as probabilidades a priori x i em probabilidades a posteriori y i (y i é a probabilidade de ocorrência do evento A i depois de recebida a mensagem). A esperança do conteúdo informativo da mensagem é:
Observação É possível mostrar que: Note que I(y:x) tende ao infinito quando uma das probabilidades a priori (x i ) tende a zero e a correspondente probabilidade a posteriori (y i ) é positiva.
As medidas de desigualdade de Theil Considere uma população onde todos recebem uma fração não-negativa (yi >=0, com i= 1, 2,..., n) da renda total. Os valores de y i têm as mesmas propriedades que as probabilidades associadas a um universo de eventos.
Entropia da distribuição de renda No caso da perfeita igualdade da distribuição de renda, todos recebem a mesma fatia da renda y i = 1/n a entropia é máxima; No caso da perfeita desigualdade da distribuição de renda, existe uma pessoa que fica com toda a renda, y i =1 para algum i H(y) = 0 Entropia é uma medida do grau de igualdade da distribuição.
Entropia da distribuição de renda Depois de definir a entropia da distribuição, Theil (1967) argumenta que é mais interessante trabalhar com a medida de desigualdade que se obtém fazendo = ‘valor máximo da entropia’ – ‘valor observado da entropia’ T = log n – H(y) =
Para uma sociedade perfeitamente igualitária, T=0 Y i =1/n Para uma sociedade totalmente desigual, T = log n
Note que: T = log n – H(y) = Probabilidades a priori== fraçao da população correspondente a cada pessoa Fração da renda apropriada por cada indivíduo Indice T-Theil esperança do valor informativo de uma mensagem incerta que transforma frações da população em frações da renda Se yi = 1/n T = 0 não há desigualdade
Índice L-Theil Índice L-Theil esperança do valor informativo de uma mensagem incerta que transforma frações da renda em frações da população Para uma sociedade perfeitamente igualitária, L=0 Y i =1/n Por outro lado, se Y i tende a zero para qq i, L tende a
Medidas em função das rendas individuais x i = renda da i-ésima pessoa = renda média y i = fração da renda assegurada pela i-ésima pessoa =
Medidas em função das rendas individuais – T-Theil
Medidas em função das rendas individuais – L-Theil
Propriedades desejadas para índices de desigualdade de renda
Medidas de desigualdade Existem várias formas de mensurar a desigualdade e cada uma delas tem uma intuição e uma abordagem matemática diferente. Algumas medidas, contudo, podem gerar resultados perversos. Exemplo: variância Uma das formas mais simples de mensurar a desigualdade, contudo, dependente da escala. Duplicar a renda, multiplica por 4 a estimativa da desigualdade de renda. Propriedade não desejável.
Medidas de desigualdade As melhores medidas de desigualdade devem seguir um conjunto de axiomas. Existem 5 propriedades que normalmente são requeridas para gerar boas medidas de desigualdade.
1) Simetria (ou Anonimato, Anonimidade) Não diferencia as pessoas por outras características que não a medida de bem estar individual (renda ou consumo).
2) Princípio das transferências (Pigou, 1912; Dalton, 1920) A desigualdade aumenta (ou pelo menos não cai) em resposta a uma transferência de um mais pobre para um mais rico. Medidas de classe de entropia generalizada, atkinson e gini satisfazem. Não satisfazem: log var e var log
3) Independência de escala Respeita a propriedade de homogeidade de grau zero da renda: se dobramos todas as rendas não acontece nada com o indicador. Variância não respeita.
4) Independência da Replicação da População (Dalton, 1920) A desigualdade é invariante à replicações da população. Medida de Herfindahl não satisfaz (H cai quando n aumenta)
5) Decomponibilidade A desigualdade total pode se relacionar de forma consistente com as partes constituintes da distribuição. Por exemplo, se a desigualdade aumenta em cada sub-grupo da população, a gente espera que a desigualdade total também cresça.
Medidas da classe GE As medidas de desigualdade I(y) que atendem a todos esses axiomas fazem parte da classe GE (Generalized Entropy) de medidas de desigualdade.
Medidas da classe GE = 0 Theil L – desvio do log da média (Mean Log Deviation) = 1 Theil T = 2 a raiz quadrada dele é igual ao coeficiente de variação Coeficiente de variação
Gini O coeficiente de Gini satisfaz os axiomas de 1 a 4 descritos anteriormente, mas não satisfaz o axioma da ‘decomponibilidade’ se os sub- vetores da renda se cruzam (overlap).