A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Reconhecimento de Padrões Teoria da Decisão Bayesiana David Menotti, Ph.D. www.decom.ufop.br/menotti Universidade Federal de Ouro Preto (UFOP) Programa.

Apresentações semelhantes


Apresentação em tema: "Reconhecimento de Padrões Teoria da Decisão Bayesiana David Menotti, Ph.D. www.decom.ufop.br/menotti Universidade Federal de Ouro Preto (UFOP) Programa."— Transcrição da apresentação:

1 Reconhecimento de Padrões Teoria da Decisão Bayesiana David Menotti, Ph.D. www.decom.ufop.br/menotti Universidade Federal de Ouro Preto (UFOP) Programa de Pós-Graduação em Ciência da Computação (PPGCC)

2 Teoria da Decisão Bayesiana Abordagem estatística fundamental em problemas de classificação. Quantificar o custo/benefício entre diferentes decisões de classificação usando probabilidades e custos associados à classificação. –Cada ação tem um custo associado. –O risco mais simples é o erro de classificação –Construir classificadores que minimizem o risco.

3 Terminologia Classes ω (variável aleatória) –ω 1 para robalo, ω 2 para salmão. Probabilidades a priori P(ω 1 ) and P(ω 2 ) –Conhecimento a priori de pescar robalo ou salmão. Função de densidade probabilidade p(x) –Frequência com a qual encontramos uma determinada característica –Evidências.

4 Terminologia Densidade de probabilidade condicional –p(x/ω j ) (Likelihood) –Frequência com que encontramos uma determinada característica dado que a mesma pertence a classe ω j

5 Terminologia Probabilidade a posteriori P(ω j /x) –Probabilidade que o peixe pertença a classe ω j dado a característica x. Regra de decisão usando somente priors –ω 1 Se P(ω 1 ) > P(ω 2 ); Senão ω 2. –Essa regra nos faria tomar a mesma decisão todas as vezes.

6 Regra de Decisão usando Bayes onde Escolha ω 1 Se P(ω 1 |x) > P(ω 2 |x); Senão escolha ω2 or Escolha ω 1 Se p(x|ω 1 )P(ω 1 ) > p(x/ω 2 )P(ω 2 ); Senão ω 2

7 Regra de Decisão usando Bayes

8 Probabilidade de Erro A probabilidade de erro usando Bayes é dada por –P(error/x) = min[P(ω 1 |x), P(ω 2 |x)]

9 Obtendo as probabilidades Essa teoria funciona somente quando conhecemos as funções. Abordagem objetiva –As probabilidades são obtidas através de experimentos Abordagem subjetiva –As probabilidades refletem um grau de confiança baseada em opinião ou conhecimento prévio.

10 Exemplo Faça uma pesquisa no campus da UFOP, perguntando valor e altura do carro que a pessoa possui –C1: preço > 50k –C2: preço < 50k –Característica X: Altura do carro. Usando Bayes, podemos calcular a probabilidade a posteriori.

11 Exemplo (cont) Determinando priors Para cada carro, perguntar o preço e altura. –Por exemplo, 1209 carros C 1 = 221 e C 2 = 988

12 Exemplo (cont) Determinar a distribuição de probabilidade

13 Exemplo (cont) Para cada barra do histrograma discretizado, calcular a probabilidade a posteriori. Note que deve Somar 1

14 Teoria Generalizada Uso de mais de uma característica Mais de duas classes Possibilita outras ações além da classificação (rejeição) Introduz uma função de erro mais genérica (loss function) –Associa custos com cada ação.

15 Terminologia Características formam um vetor Conjunto finito de classes ω 1, ω 2, …, ω c Conjunto finito de ações α 1, α 2, …, α l Loss function λ(α i / ω j ) A perda por tomar uma ação α i quando a classificação for ω j Bayes onde

16 Minimização do Risco Risco condicional (Expected loss) de tomar uma ação α i Esse risco pode ser minimizado selecionando-se uma ação que minimiza o risco condicional.

17 Minimização do Risco A regra de Bayes que minimiza R –Computando R(α i / x) para cada α i dado um x. –Escolher uma ação α i com o mínimo R(α i /x)

18 Exemplo Problema com duas Classes Duas possíveis ações –α 1 corresponde a decidir por ω 1 –α 2 corresponde a decidir por ω 2 Notação λ ij= λ(α i,ω j ) Os riscos condicionais são onde

19 Referências (ML 3.1) Decision theory (Basic Framework) –http://www.youtube.com/watch?v=KYRAO8f5rXAhttp://www.youtube.com/watch?v=KYRAO8f5rXA (ML 3.2) Minimizing conditional expected loss –http://www.youtube.com/watch?v=NC_cTB1PHyQhttp://www.youtube.com/watch?v=NC_cTB1PHyQ (ML 3.3) Choosing f to minimize expected loss –http://www.youtube.com/watch?v=--nMFiqwoZAhttp://www.youtube.com/watch?v=--nMFiqwoZA (ML 3.4) Square loss –http://www.youtube.com/watch?v=AihhnWyl-J0http://www.youtube.com/watch?v=AihhnWyl-J0 (ML 3.5, 3.6 and 3.7) The Big Picture (parts 1, 2, and 3) –http://www.youtube.com/watch?v=frbX2JH-_Awhttp://www.youtube.com/watch?v=frbX2JH-_Aw –http://www.youtube.com/watch?v=Ih4R42qPRWohttp://www.youtube.com/watch?v=Ih4R42qPRWo –http://www.youtube.com/watch?v=VP3DxMxXw3Qhttp://www.youtube.com/watch?v=VP3DxMxXw3Q


Carregar ppt "Reconhecimento de Padrões Teoria da Decisão Bayesiana David Menotti, Ph.D. www.decom.ufop.br/menotti Universidade Federal de Ouro Preto (UFOP) Programa."

Apresentações semelhantes


Anúncios Google