A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Conceitos básicos da teoria da informação e as medidas de desigualdade de Theil Cap. 4 – Distribuição de renda – Medidas de desigualdade e Pobreza – Rodolfo.

Apresentações semelhantes


Apresentação em tema: "Conceitos básicos da teoria da informação e as medidas de desigualdade de Theil Cap. 4 – Distribuição de renda – Medidas de desigualdade e Pobreza – Rodolfo."— Transcrição da apresentação:

1 Conceitos básicos da teoria da informação e as medidas de desigualdade de Theil Cap. 4 – Distribuição de renda – Medidas de desigualdade e Pobreza – Rodolfo Hoffmann

2 Conteúdo informativo de uma mensagem Seja x a probabilidade de ocorrência do evento A Vamos olhar para a relação entre essa probabilidade e o conteúdo informativo da mensagem “O evento A ocorreu”. Se a probabilidade de ocorrência do evento A fosse x = 1, então, a mensagem acima não traria nenhuma novidade. Ideia: quanto menor for o valor de x, maior será o conteúdo informativo da mensagem “O evento A ocorreu.” Quando x  0, o conteúdo informativo  

3 Conteúdo informativo de uma mensagem h(x)  conteúdo informativo de uma mensagem Função log foi escolhida devido a propriedade de aditividade no caso de dois eventos independentes h(x 1,x 2 ) = h(x 1 ) + h(x 2 )

4 Conteúdo informativo de uma previsão Suponha que a probabilidade de chuva seja igual a x = 0,2  h(x) = ln(1/0,2) = 1,61 – valor informativo da informação de que “choveu” Vamos supor também que no dia anterior, vc assistiu o noticiário que afirmou que no dia seguinte iria chover. Admita que isso tenha alterado a probabilidade de chuva para y = 0,6  h(y) = ln(1/0,6) = 0,51 – valor informativo da mensagem de que “choveu”

5 O conteúdo informativo da previsão h(x) – h(y) = ln(1/x) – ln(1/y) = ln(y/x) Ideia = com o conteúdo informativo que recebemos da previsão, ficamos menos ‘surpresos’ com a chuva. Quando uma mensagem está sujeita a erro, como no caso de uma previsão, o conteúdo informativo da previsão: h = log(y/x) x = é a probabilidade a priori e y = é a probabilidade a posteriori [a definição anterior pode ser vista como um caso particular em que y=1 -> que seria o conteúdo informativo de uma mensagem certa]

6 A esperança do conteúdo informativo de uma mensagem e a entropia de uma distribuição Considere n possíveis eventos A i i= 1,..., n exaustivos e mutuamente exclusivos, aos quais associamos as probabilidades x i A esperança matemática do conteúdo informativo da mensagem “ocorreu Ai”, isto é, a informação esperada é:

7 A esperança do conteúdo informativo de uma mensagem e a entropia de uma distribuição Para x i = 0  Para 0 < x i  1, temos 1/x i ≥ 1 e log(1/x i ) ≥ 0 Quando H(x) será igual a zero? Se resolvermos o lagrangeano para equação acima, encontraremos o máximo de H(x) = log n Portanto,

8 A esperança do conteúdo informativo de uma mensagem e a entropia de uma distribuição Perguntas: Quando H(x) será igual a zero? Quando H(x) será igual ao máximo?

9 Entropia da distribuição A esperança do conteúdo informativo para uma distribuição E[H(x)] é chamada entropia da distribuição. A entropia da distribuição é máxima (ou seja, há um máximo de incerteza a respeito do que pode ocorrer) quando todos os possíveis eventos são igualmente prováveis Física = aumento da entropia = aumento da desordem no sistema...

10 Informação esperada de uma mensagem incerta n possíveis eventos A i com probabilidades x i consideremos uma mensagem incerta (uma previsão ou mensagem duvidosa) que transforma as probabilidades a priori x i em probabilidades a posteriori y i (y i é a probabilidade de ocorrência do evento A i depois de recebida a mensagem). A esperança do conteúdo informativo da mensagem é:

11 Observação 1 De fato, o conteúdo informativo de uma mensagem certa [h(x)=log(1/x)] que definimos antes, é um caso particular em que a probabilidade a posteriori é igual a 1 para um evento e todas as outras são iguais a zero, isto é, y j =1 e y k = 0 para todo k  j

12 Observação 2 É possível mostrar que: Note que I(y:x) tende ao infinito quando uma das probabiliddes a priori (x i ) tende a zero e a correspondente probabilidade a posteriori (y i ) é positiva.

13 As medidas de desigualdade de Theil Considere uma população onde todos recebem uma fração não-negativa (yi >=0, com i= 1, 2,..., n) da renda total. Os valores de y i têm as mesmas propriedades que as probabilidades associadas a um universo de eventos.

14 Entropia da distribuição de renda  No caso da perfeita igualdade da distribuição de renda, todos recebem a mesma fatia da renda y i = 1/n  a entropia é máxima;  No caso da perfeita desigualdade da distribuição de renda, existe uma pessoa que fica com toda a renda,  y i =1 para algum i  H(y) = 0 Entropia é uma medida do grau de igualdade da distribuição.

15 Entropia da distribuição de renda Depois de definir a entropia da distribuição, Theil (1967) argumenta que é mais interessante trabalhar com a medida de desigualdade que se obtém fazendo = ‘valor máximo da entropia’ – ‘valor observado da entropia’ T = log n – H(y) =

16

17 Para uma sociedade perfeitamente igualitária, T=0 Y i =1/n Para uma sociedade totalmente desigual, T = log n

18 Note que: T = log n – H(y) = Probabilidades a priori== fraçao da população correspondente a cada pessoa Fração da renda apropriada por cada indivíduo Indice T-Theil  esperança do valor informativo de uma mensagem incerta que transforma frações da população em frações da renda Se yi = 1/n  T = 0  não há desigualdade

19 Índice L-Theil Índice L-Theil  esperança do valor informativo de uma mensagem incerta que transforma frações da renda em frações da população Para uma sociedade perfeitamente igualitária, L=0 Y i =1/n Por outro lado, se Y i tende a zero para qq i, L tende a 

20 Medidas em função das rendas individuais x i = renda da i-ésima pessoa  = renda média y i = fração da renda assegurada pela i-ésima pessoa =

21 Medidas em função das rendas individuais – T-Theil

22 Medidas em função das rendas individuais – L-Theil

23 Decomposição O índices Theil podem ser decompostos em uma medida de desigualdade entre-grupos e uma média ponderada das medidas de desigualdade intra-grupos. K grupos n h = número de elementos do grupo h N= tamanho da população tamanho relativo dos grupos =

24 Decomposição

25 Decomposição T-Theil Note que: caso haja perfeita igualdade dentro dos grupos  T = Te

26 Decomposição L-Theil Note que: caso haja perfeita igualdade dentro dos grupos  L = Le


Carregar ppt "Conceitos básicos da teoria da informação e as medidas de desigualdade de Theil Cap. 4 – Distribuição de renda – Medidas de desigualdade e Pobreza – Rodolfo."

Apresentações semelhantes


Anúncios Google