Reconhecimento de Padrões Teoria da Decisão Bayesiana David Menotti, Ph.D. www.decom.ufop.br/menotti Universidade Federal de Ouro Preto (UFOP) Programa.

Slides:



Advertisements
Apresentações semelhantes
Estatística Dados valores (amostras) de variáveis aleatórias X1, X2, ..., Xn, cuja distribuição conjunta é desconhecida, inferir propriedades desta distribuição.
Advertisements

Tratamento de incerteza em S.E. baseados em regras Fatores de Certeza
ANÁLISE DISCRIMINANTE LIG, 18 de novembro de 2008.
ANÁLISE DISCRIMINANTE
1 Mineração de Dados - Trabalho Final junho/julho de 2008 Selecionar um arquivo de dados entre os sugeridos no repósitório UCI (
AULA 03 PERCEPTRON SIMPLES.
Resolução de problemas
Inteligência Artificial
Inteligência Artificial
Inteligência Artificial
Inteligência Artificial
Estatística Unidimensionais 4 - Variáveis Aleatórias
Dárlinton B. Feres Carvalho
Reconhecimento de Padrões Revisão de Probabilidade e Estatística
Medida do Tempo de Execução de um Programa
Colônia de Formigas (Ant Colony Optimization)
Reconhecimento de Padrões Tipos de Aprendizagem
Reconhecimento de Padrões Classificadores Lineares
Reconhecimento de Padrões Segmentação
Reconhecimento de Padrões Seleção de Características
Reconhecimento de Padrões Receiver Operating Characteristics (ROC)
Reconhecimento de Padrões EigenFaces
Reconhecimento de Padrões Teoria da Decisão Bayesiana
Reconhecimento de Padrões Combinando Classificadores
Reconhecimento de Padrões Dissimilaridade
Universidade Federal de Ouro Preto (UFOP)
Reconhecimento de Padrões PCA David Menotti, Ph.D. Universidade Federal de Ouro Preto (UFOP) Programa de Pós-Graduação em Ciência.
Reconhecimento de Padrões Aprendizagem Supervisionada (KNN)
Reconhecimento de Padrões Principal Component Analysis (PCA) Análise dos Componentes Principais David Menotti, Ph.D. Universidade.
Irineu Júnior Pinheiro dos Santos Mirela Ferreira César
INF 1771 – Inteligência Artificial
ESTATÍSTICA: O estudo numérico dos fatos sociais
Objetivo Definições Cálculo do teste Exemplo Comentários Bibliografia
CAPÍTULO I- TEORIA DAS PROBABILIDADE
Introdução O que é computação?.
Aula 02 Variáveis, Matrizes, Gráficos
Material Didático Proposto 1 Universidade Federal de Ouro Preto - UFOP Departamento de Computação - DECOM Comissão para Coordenação das Atividades Pedagógicas.
DERIVAÇÃO DE UM SISTEMA BÔNUS-MALUS UMA ABORDAGEM USANDO A TEORIA DA DECISÃO.
Função de uma Variável Aleatória
Exponential Random Graph Models
Estatística e Probabilidade
Variável Aleatória Contínua.
Redes Bayesianas - Aplicação em Risco Operacional
Uma Abordagem Híbrida Fuzzy-Bayesiana para Modelagem de Incertezas
O Processo de KDD Data Mining SUMÁRIO - AULA1 O processo de KDD
Clique para editar o estilo do título mestre Clique para editar o estilo do subtítulo mestre 1 Seminário: Disciplina: Probabilidade e Inferência Professor:
Estatística Aula 13 Prof. Marllus Gustavo Ferreira Passos das Neves
Matemática e suas Tecnologias - Matemática PROBABILIDADE CONDICIONAL
Material Didático Proposto 1 Universidade Federal de Ouro Preto - UFOP Departamento de Computação - DECOM Comissão para Coordenação das Atividades Pedagógicas.
Estratégia empresarial de TI Aula 1 – Decisão sob incerteza Prof. E. A. Schmitz.
Estatística Descritiva
3. Distribuições de probabilidade
Uma Introdução a SVM Support Vector Machines
Marcus Sampaio DSC/UFCG. Marcus Sampaio DSC/UFCG O Problema Dados –Um banco de transações de compra –Cada transação é um conjunto de ítens comprados Encontrar.
Raciocínio Bayesiano Ruy Luiz Milidiú.
Monitoramento e Controle Ambiental
ERROS E TRATAMENTO DE DADOS ANALÍTICOS
Estatística Descritiva. 2 oO que é a estatística ? Para muitos, a estatística não passa de conjuntos de tabelas de dados numéricos. Os estatísticos são.
Modelos Teóricos Contínuos de Probabilidade
PROBABILIDADE E ESTATÍSTICA APLICADA À ENGENHARIA
III - Amostragem Prof. Herondino.
FEATURE SELECTION. Introdução  Estudo de metodologias relacionadas a seleção de atributos  Maldição da dimensionalidade  O número de atributos do desenvolvedor.
Classificadores Bayesianos Classificadores Bayesianos são classificadores estatísticos que classificam um objeto numa determinada classe baseando-se na.
1 Estatística Descritiva (I). 2 O que é Estatística A Estatística originou-se com a coleta e construção de tabelas de dados para o governo. A situação.
Mineração de Dados (Data Mining)
DETEÇÃO E ESTIMAÇÃO Aula 20: Estimação Paramétrica Clássica.
Inferência 1:Estimação de Parâmetros Relembrando o Teorema Central do Limite Da aula anterior: a) Os estimadores da média e da s 2 são não viciados e de.
Métodos Probabilísticos
Fernando NogueiraAnálise de Decisão1. Fernando NogueiraAnálise de Decisão2 Introdução A Análise de Decisão envolve o uso de processos racionais para selecionar.
Reconhecimento de Padrões Introdução David Menotti Universidade Federal de Ouro Preto (UFOP) Programa de Pós-Graduação em Ciência.
Transcrição da apresentação:

Reconhecimento de Padrões Teoria da Decisão Bayesiana David Menotti, Ph.D. Universidade Federal de Ouro Preto (UFOP) Programa de Pós-Graduação em Ciência da Computação (PPGCC)

Teoria da Decisão Bayesiana Abordagem estatística fundamental em problemas de classificação. Quantificar o custo/benefício entre diferentes decisões de classificação usando probabilidades e custos associados à classificação. –Cada ação tem um custo associado. –O risco mais simples é o erro de classificação –Construir classificadores que minimizem o risco.

Terminologia Classes ω (variável aleatória) –ω 1 para robalo, ω 2 para salmão. Probabilidades a priori P(ω 1 ) and P(ω 2 ) –Conhecimento a priori de pescar robalo ou salmão. Função de densidade probabilidade p(x) –Frequência com a qual encontramos uma determinada característica –Evidências.

Terminologia Densidade de probabilidade condicional –p(x/ω j ) (Likelihood) –Frequência com que encontramos uma determinada característica dado que a mesma pertence a classe ω j

Terminologia Probabilidade a posteriori P(ω j /x) –Probabilidade que o peixe pertença a classe ω j dado a característica x. Regra de decisão usando somente priors –ω 1 Se P(ω 1 ) > P(ω 2 ); Senão ω 2. –Essa regra nos faria tomar a mesma decisão todas as vezes.

Regra de Decisão usando Bayes onde Escolha ω 1 Se P(ω 1 |x) > P(ω 2 |x); Senão escolha ω2 or Escolha ω 1 Se p(x|ω 1 )P(ω 1 ) > p(x/ω 2 )P(ω 2 ); Senão ω 2

Regra de Decisão usando Bayes

Probabilidade de Erro A probabilidade de erro usando Bayes é dada por –P(error/x) = min[P(ω 1 |x), P(ω 2 |x)]

Obtendo as probabilidades Essa teoria funciona somente quando conhecemos as funções. Abordagem objetiva –As probabilidades são obtidas através de experimentos Abordagem subjetiva –As probabilidades refletem um grau de confiança baseada em opinião ou conhecimento prévio.

Exemplo Faça uma pesquisa no campus da UFOP, perguntando valor e altura do carro que a pessoa possui –C1: preço > 50k –C2: preço < 50k –Característica X: Altura do carro. Usando Bayes, podemos calcular a probabilidade a posteriori.

Exemplo (cont) Determinando priors Para cada carro, perguntar o preço e altura. –Por exemplo, 1209 carros C 1 = 221 e C 2 = 988

Exemplo (cont) Determinar a distribuição de probabilidade

Exemplo (cont) Para cada barra do histrograma discretizado, calcular a probabilidade a posteriori. Note que deve Somar 1

Teoria Generalizada Uso de mais de uma característica Mais de duas classes Possibilita outras ações além da classificação (rejeição) Introduz uma função de erro mais genérica (loss function) –Associa custos com cada ação.

Terminologia Características formam um vetor Conjunto finito de classes ω 1, ω 2, …, ω c Conjunto finito de ações α 1, α 2, …, α l Loss function λ(α i / ω j ) A perda por tomar uma ação α i quando a classificação for ω j Bayes onde

Minimização do Risco Risco condicional (Expected loss) de tomar uma ação α i Esse risco pode ser minimizado selecionando-se uma ação que minimiza o risco condicional.

Minimização do Risco A regra de Bayes que minimiza R –Computando R(α i / x) para cada α i dado um x. –Escolher uma ação α i com o mínimo R(α i /x)

Exemplo Problema com duas Classes Duas possíveis ações –α 1 corresponde a decidir por ω 1 –α 2 corresponde a decidir por ω 2 Notação λ ij= λ(α i,ω j ) Os riscos condicionais são onde

Referências (ML 3.1) Decision theory (Basic Framework) – (ML 3.2) Minimizing conditional expected loss – (ML 3.3) Choosing f to minimize expected loss – (ML 3.4) Square loss – (ML 3.5, 3.6 and 3.7) The Big Picture (parts 1, 2, and 3) – – –