Conceitos básicos da teoria da informação e as medidas de desigualdade de Theil (1967) Cap. 4 – Distribuição de renda – Medidas de desigualdade e Pobreza.

Slides:



Advertisements
Apresentações semelhantes
DISTRIBUIÇÕES AMOSTRAIS
Advertisements

Sistemas Realimentados
MÉTODOS QUANTITATIVOS
ANÁLISE DISCRIMINANTE
Cássio Luís Fernandes de Oliveira
Variável Aleatória Contínua
ESTIMAÇÃO.
DERIVADAS E DIFERENCIAIS
Problemas de Forma Não-padrão
INEQUAÇÃO → Para aprendermos inequação, deveremos conhecer os símbolos das desigualdades. Uma sentença matemática em que usa o símbolo ≠ (diferente de)
ANÁLISE DE SÉRIES DE TEMPO
SISTEMAS LINEARES I Prof. Marlon.
EQUAÇÕES POLINOMIAIS Prof. Marlon.
Estatística Aplicada (Aula 4)
Distribuição de probabilidade
Distribuição de probabilidade
UNIVERSIDADE FEDERAL DE UBERLÂNDIA FACULDADE DE MATEMÁTICA
Site: Estatística Prof. Edson Nemer Site:
Análise do Lugar das Raízes
CAPÍTULO I- TEORIA DAS PROBABILIDADE
Prof. Roberto Cristóvão
Teorema do Confronto   Se não pudermos obter o limite diretamente, talvez possamos obtê-lo indiretamente com o teorema do confronto. O teorema se refere.
ME623A Planejamento e Pesquisa
Descrição Matemática de Sistemas (C. T. Chen, Capítulo 2)
VALORES ESPERADOS.
Função de uma Variável Aleatória
AXIOMÁTICA Rosa Canelas.
Estatística e Probabilidade
Distribuição de Probabilidades
DISTRIBUIÇÕES AMOSTRAIS
Modelos de distribuição de erros
Escolha sob Incerteza Prof. João Manoel Pinho de Mello
Aritmética de Números Cardinais
1 - Equações Diferenciais Ordinárias
Regressão Pontos mais importantes: -objectivo -regressão linear
Aula 6 - Método não-experimental ou de seleção não-aleatória
Introdução ao Stata 05 de julho de 2013
PROBABILIDADE.
Aplicações Estatísticas uma rápida abordagem
ADMINISTRAÇÃO FINANCEIRA
Matemática e suas Tecnologias – Matemática
ANÁLISE ESTATÍSTICA II
Estatística Geral (Elementos de Probabilidade)
Escolha sob Incerteza Prof. João Manoel Pinho de Mello Depto. de Economia, PUC-Rio Agosto, 2006.
3. Distribuições de probabilidade
DISTRIBUIÇÃO NORMAL.
Escolha sob Incerteza Prof. João Manoel Pinho de Mello Depto. de Economia, PUC-Rio Agosto, 2008.
Regressão e Previsão Numérica.
Prof. Luciano Soares Pedroso
análise dos estimadores
ANÁLISE DE INVESTIMENTOS PROFESSOR: PIERRE LUCENA
Laboratório de Física Corpuscular - aula expositiva IF - UFRJ1 Algumas Distribuições de Probabilidade e Estatística de Contagem Prof. Marcelo.
Potenciação an = a . a . a a (a ≠ 0) n fatores onde: a: base
FUNÇÃO EXPONENCIAL.
DISTRIBUIÇÕES DE PROBABILIDADE
Cálculo Diferencial e Integral I
INFERÊNCIA ESTATÍSTICA PROPORÇÃO POPULACIONAL p
Metodologia da Pesquisa em Ensino de Ciências I
TEORIA DOS NÚMEROS Aula 2 – Princípio da Indução Finita
DISTRIBUIÇÃO BINOMIAL
Estática Estática Histórico
2. VARIÁVEIS ALEATÓRIAS 2015.
Professor: Cezar A. P. Santos Introdução à Análise do Risco
Média e valor médio No estudo da estatística descritiva, para além das tabelas de frequências e gráficos, estudam-se outros métodos para resumir a informação.
Aula 1. Introdução à Inferência Estatística
Estatística Inferencial. É um processo de tomada de decisão baseado em probabilidades e pode ser de dois tipos: - Estimação de parâmetros – usando a informação.
Inferência 1:Estimação de Parâmetros Relembrando o Teorema Central do Limite Da aula anterior: a) Os estimadores da média e da s 2 são não viciados e de.
Conceitos básicos da teoria da informação e as medidas de desigualdade de Theil Cap. 4 – Distribuição de renda – Medidas de desigualdade e Pobreza – Rodolfo.
Roda viva Amartya Sen 22/1/2001- Não é a falta de alimentos a causa da fome, mas a insuficiência de renda para comprar comida, diz o economista.
Propriedades desejadas para índices de desigualdade de renda.
Transcrição da apresentação:

Conceitos básicos da teoria da informação e as medidas de desigualdade de Theil (1967) Cap. 4 – Distribuição de renda – Medidas de desigualdade e Pobreza – Rodolfo Hoffmann

Conteúdo informativo de uma mensagem Seja x a probabilidade de ocorrência do evento A Vamos olhar para a relação entre essa probabilidade e o conteúdo informativo da mensagem “O evento A ocorreu”. Se a probabilidade de ocorrência do evento A fosse x = 1, então, a mensagem acima não traria nenhuma novidade. Ideia: quanto menor for o valor de x, maior será o conteúdo informativo da mensagem “O evento A ocorreu.” Quando x  0, o conteúdo informativo  

Conteúdo informativo de uma mensagem Por definição: h(x)  conteúdo informativo de uma mensagem é dado por: Função log foi escolhida devido a propriedade de aditividade no caso de dois eventos independentes h(x 1,x 2 ) = h(x 1 ) + h(x 2 )

Conteúdo informativo de uma previsão Suponha que a probabilidade de chuva seja igual a x = 0,2  h(x) = ln(1/0,2) = 1,61 – valor informativo da informação de que “choveu” Vamos supor também que no dia anterior, vc assistiu o noticiário que afirmou que no dia seguinte iria chover. Admita que isso tenha alterado a probabilidade de chuva para y = 0,6  h(y) = ln(1/0,6) = 0,51 – valor informativo da mensagem de que “choveu”

O conteúdo informativo da previsão h(x) – h(y) = ln(1/x) – ln(1/y) = ln(y/x) Ideia = com o conteúdo informativo que recebemos da previsão, ficamos menos ‘surpresos’ com a chuva. Quando uma mensagem está sujeita a erro, como no caso de uma previsão, o conteúdo informativo da previsão: h = log(y/x) x = é a probabilidade a priori, ou seja, antes de receber a mensagem y = é a probabilidade a posteriori

A esperança do conteúdo informativo de uma mensagem e a entropia de uma distribuição Considere n possíveis eventos A i i= 1,..., n exaustivos e mutuamente exclusivos, aos quais associamos as probabilidades x i A esperança matemática do conteúdo informativo da mensagem “ocorreu Ai”, isto é, a informação esperada é:

A esperança do conteúdo informativo de uma mensagem e a entropia de uma distribuição Para x i = 0  Para 0 < x i  1, temos 1/x i ≥ 1 e log(1/x i ) ≥ 0 Quando H(x) será igual a zero? Quando uma das probabilidades é 1 e as demais 0. Se resolvermos o lagrangeano para equação acima, encontraremos o máximo de H(x) = log n Portanto,

Lagrangeano

A esperança do conteúdo informativo de uma mensagem e a entropia de uma distribuição Perguntas: Quando H(x) será igual a zero? Quando H(x) será igual ao máximo? 0<= H(x) <= log n

Entropia da distribuição A esperança do conteúdo informativo para uma distribuição H(x) é chamada entropia da distribuição. A entropia da distribuição é máxima (ou seja, há um máximo de incerteza a respeito do que pode ocorrer) quando todos os possíveis eventos são igualmente prováveis.

Informação esperada de uma mensagem incerta n possíveis eventos A i com probabilidades x i consideremos uma mensagem incerta (uma previsão ou mensagem duvidosa) que transforma as probabilidades a priori x i em probabilidades a posteriori y i (y i é a probabilidade de ocorrência do evento A i depois de recebida a mensagem). A esperança do conteúdo informativo da mensagem é:

Observação É possível mostrar que: Note que I(y:x) tende ao infinito quando uma das probabilidades a priori (x i ) tende a zero e a correspondente probabilidade a posteriori (y i ) é positiva.

As medidas de desigualdade de Theil Considere uma população onde todos recebem uma fração não-negativa (yi >=0, com i= 1, 2,..., n) da renda total. Os valores de y i têm as mesmas propriedades que as probabilidades associadas a um universo de eventos.

Entropia da distribuição de renda  No caso da perfeita igualdade da distribuição de renda, todos recebem a mesma fatia da renda y i = 1/n  a entropia é máxima;  No caso da perfeita desigualdade da distribuição de renda, existe uma pessoa que fica com toda a renda,  y i =1 para algum i  H(y) = 0 Entropia é uma medida do grau de igualdade da distribuição.

Entropia da distribuição de renda Depois de definir a entropia da distribuição, Theil (1967) argumenta que é mais interessante trabalhar com a medida de desigualdade que se obtém fazendo = ‘valor máximo da entropia’ – ‘valor observado da entropia’ T = log n – H(y) =

Para uma sociedade perfeitamente igualitária, T=0 Y i =1/n Para uma sociedade totalmente desigual, T = log n

Note que: T = log n – H(y) = Probabilidades a priori== fraçao da população correspondente a cada pessoa Fração da renda apropriada por cada indivíduo Indice T-Theil  esperança do valor informativo de uma mensagem incerta que transforma frações da população em frações da renda Se yi = 1/n  T = 0  não há desigualdade

Índice L-Theil Índice L-Theil  esperança do valor informativo de uma mensagem incerta que transforma frações da renda em frações da população Para uma sociedade perfeitamente igualitária, L=0 Y i =1/n Por outro lado, se Y i tende a zero para qq i, L tende a 

Medidas em função das rendas individuais x i = renda da i-ésima pessoa  = renda média y i = fração da renda assegurada pela i-ésima pessoa =

Medidas em função das rendas individuais – T-Theil

Medidas em função das rendas individuais – L-Theil

Propriedades desejadas para índices de desigualdade de renda

Medidas de desigualdade Existem várias formas de mensurar a desigualdade e cada uma delas tem uma intuição e uma abordagem matemática diferente. Algumas medidas, contudo, podem gerar resultados perversos. Exemplo: variância Uma das formas mais simples de mensurar a desigualdade, contudo, dependente da escala. Duplicar a renda, multiplica por 4 a estimativa da desigualdade de renda. Propriedade não desejável.

Medidas de desigualdade As melhores medidas de desigualdade devem seguir um conjunto de axiomas. Existem 5 propriedades que normalmente são requeridas para gerar boas medidas de desigualdade.

1) Simetria (ou Anonimato, Anonimidade) Não diferencia as pessoas por outras características que não a medida de bem estar individual (renda ou consumo).

2) Princípio das transferências (Pigou, 1912; Dalton, 1920) A desigualdade aumenta (ou pelo menos não cai) em resposta a uma transferência de um mais pobre para um mais rico. Medidas de classe de entropia generalizada, atkinson e gini satisfazem. Não satisfazem: log var e var log

3) Independência de escala Respeita a propriedade de homogeidade de grau zero da renda: se dobramos todas as rendas não acontece nada com o indicador. Variância não respeita.

4) Independência da Replicação da População (Dalton, 1920) A desigualdade é invariante à replicações da população. Medida de Herfindahl não satisfaz (H cai quando n aumenta)

5) Decomponibilidade A desigualdade total pode se relacionar de forma consistente com as partes constituintes da distribuição. Por exemplo, se a desigualdade aumenta em cada sub-grupo da população, a gente espera que a desigualdade total também cresça.

Medidas da classe GE As medidas de desigualdade I(y) que atendem a todos esses axiomas fazem parte da classe GE (Generalized Entropy) de medidas de desigualdade.

Medidas da classe GE  = 0  Theil L – desvio do log da média (Mean Log Deviation)  = 1  Theil T  = 2  a raiz quadrada dele é igual ao coeficiente de variação Coeficiente de variação 

Gini O coeficiente de Gini satisfaz os axiomas de 1 a 4 descritos anteriormente, mas não satisfaz o axioma da ‘decomponibilidade’ se os sub- vetores da renda se cruzam (overlap).