Reconhecimento de Padrões Combinando Classificadores

Slides:



Advertisements
Apresentações semelhantes
AULA 02 PROGRAMAÇÃO LINEAR INTEIRA
Advertisements

AULA 01 PROGRAMAÇÃO DINÂMICA
Software Básico Silvio Fernandes
Aprendizado de Máquina
DESENHO INDUSTRIAL ASSISTIDO POR COMPUTADOR
Experiments with Clustering as a Software Remodularization Method Nicolas Anquetil and Timothy C. Lethbridge University of Ottawa, Canada WCRE 1999:
UNICAMP Universidade Estadual de Campinas Centro Superior de Educação Tecnológica Divisão de Telecomunicações Propagação de Ondas e Antenas Prof.Dr. Leonardo.
Inversor Trifásicos com Três Pernas
Gerenciamento de Projetos
Técnicas de orçamento de capital
Mineração de Dados Avaliação de Classificadores
Ludwig Krippahl, 2007 Programação para as Ciências Experimentais 2006/7 Teórica 9.
Araken de Medeiros Santos Anne Magály de Paula Canuto
Software Básico Silvio Fernandes
AULA 03 PERCEPTRON SIMPLES.
Análise de regressão linear simples: abordagem matricial
1 Complexidade de Algoritmos Complexidade de pior caso Complexidade de melhor caso de uso bem menos freqüente em algumas situações específicas Complexidade.
Árvores.
Arquivos Seqüenciais Inhaúma Neves Ferraz
EXPRESSÕES ARITMÉTICAS
Estatística Básica Utilizando o Excel
Reconhecimento de Padrões Tipos de Aprendizagem
Reconhecimento de Padrões Classificadores Lineares
Reconhecimento de Padrões Segmentação
Reconhecimento de Padrões Seleção de Características
Reconhecimento de Padrões Receiver Operating Characteristics (ROC)
Reconhecimento de Padrões EigenFaces
Reconhecimento de Padrões Teoria da Decisão Bayesiana David Menotti, Ph.D. Universidade Federal de Ouro Preto (UFOP) Programa.
Rodrigo Geraldo Ribeiro Denis Pinto Pinheiro Camila Leles Rezende
Reconhecimento de Padrões Teoria da Decisão Bayesiana
Reconhecimento de Padrões Dissimilaridade
Reconhecimento de Padrões PCA David Menotti, Ph.D. Universidade Federal de Ouro Preto (UFOP) Programa de Pós-Graduação em Ciência.
Reconhecimento de Padrões Aprendizagem Supervisionada (KNN)
Reconhecimento de Padrões Principal Component Analysis (PCA) Análise dos Componentes Principais David Menotti, Ph.D. Universidade.
Capítulo 6 Estimativas e Tamanho de Amostras
MB751 – Modelos de previsão
Rganização de Computadores Melhorias de Desempenho com Pipelines Capítulo 6 – Patterson & Hennessy Organização de Computadores Melhorias de Desempenho.
FUNÇÃO MODULAR.
INF 1771 – Inteligência Artificial
Provas de Concursos Anteriores
Contagem de Pessoas por Vídeo Usando Câmeras em Posição Zenital
Davyd Bandeira de Melo Um Sistema de Reconhecimento de Comandos de Voz Utilizando a Rede Neural ELM Junho 2011.
Como aplicar leis da lógica
Semana 03: Comandos de desvio de fluxo. Expressões lógicas.
Aprendizado de Máquina Aula 8
Inteligência Artificial
Alexandre Xavier Falcão & David Menotti
ME623A Planejamento e Pesquisa
Resultantes de Sistemas de Forças Cap. 4
Oferta e Demanda A Curva de Oferta
Algoritmos Culturais.
Coordenação Geral de Ensino da Faculdade
Arquitetura de computadores
Modelagem Estatística
Semana 03 Comandos de desvio de fluxo. Expressões lógicas.
1 2 Observa ilustração. Cria um texto. Observa ilustração.
SairPróximo Itens de Seleção Probabilidades e Combinatória Cálculo de Probabilidades. Regra de Laplace. ITENS DE SELEÇÃO DOS EXAMES NACIONAIS E TESTES.
ANÁLISE ESTATÍSTICA II
Redes Neuronais/Neurais/ Conexionistas Introdução
Seleção de Atributos Ricardo Prudêncio.
Ceça Moraes – Introdução à Programação SI1
Support Vector Machine - SVM
O Processo de KDD Data Mining SUMÁRIO - AULA1 O processo de KDD
NOÇÕES DE PROBABILIDADE
BCC /01 Aula Teórica 09 Funções Material Didático Proposto. 1 BCC701 – Programação de Computadores I Universidade Federal de Ouro Preto Departamento.
BCC 101 – Matemática Discreta I
Aula 11 - Teste de hipóteses, teste de uma proporção
Campus de Caraguatatuba Aula 9: Noções Básicas sobre Erros (3)
FEATURE SELECTION. Introdução  Estudo de metodologias relacionadas a seleção de atributos  Maldição da dimensionalidade  O número de atributos do desenvolvedor.
Transcrição da apresentação:

Reconhecimento de Padrões Combinando Classificadores Universidade Federal de Ouro Preto (UFOP) Programa de Pós-Graduação em Ciência da Computação (PPGCC) Reconhecimento de Padrões Combinando Classificadores David Menotti, Ph.D. www.decom.ufop.br/menotti

Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti Introdução O uso de vários classificadores é uma estratégia bastante utilizada para aumentar o desempenho de sistemas de reconhecimento de padrões. A ideia é que os erros sejam minimizados através do uso de múltiplos classificadores ao invés de um único classificador. Resultados teóricos e experimentais demonstram a viabilidade do uso de múltiplos classificadores. Diferentes arquiteturas Diferentes características Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti Introdução Combinação Classificadores “handcrafted” que são posteriormente combinados para resolver um dado problema. Ensembles Classificadores gerados automaticamente por um algoritmo qualquer Bagging, boosting, seleção de características, subespaços, etc... Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti Introdução O uso de múltiplos classificadores aparece na literatura com diferentes nomes Fusão de classificadores Combinação de classificadores Mistura de classificadores Pool Ensembles Comitês Etc... Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti Paralelo vs Série Múltiplos classificadores podem ser combinados paralelamente ou em série. Paralelo Os classificadores C1, ... Cn, produzem decisões sobre um padrão desconhecido Todas essas decisões são então enviadas para um método de fusão que produzirá o resultado final. Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti Combinação: Paralelo Produto Média Max Min Soma Classificador Estrutura Paralela C1 C2 Fusão Cn Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti Combinação: Série Uma alternativa para a combinação paralela é a combinação em série. A cada estágio do sistema existe somente um classificador atuando no sistema. A combinação em série pode ser dividida em duas abordagens Redução das classes Re-avaliação Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti Combinação: Série Redução de classes A cada estágio do sistema o número de classes candidatas é reduzida Re-avaliação Padrões rejeitados em níveis anteriores são re-avaliados. Se o nível de confiança do classificador é baixo o padrão deverá ser avaliado no nível seguinte. Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti Combinação: Série Baixo Redução do custo computacional A ideia é que a maioria dos padrões sejam classificados nos primeiros níveis, onde o custo computacional é mais baixo. custo Alto Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Saída dos Classificadores Em geral, as saídas produzidas por classificadores podem ser divididas em três níveis Abstrato O classificador gera apenas o rótulo da classe escolhida. Ranking O classificador gera uma lista ordenada com as possíveis classes. Probabilidades / scores Além da lista ordenada, as probabilidades ou scores também são geradas. Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti Métodos de Fusão O método de fusão mais simples de ser implementado é o voto majoritário Bastante utilizado com classificadores abstratos. Fácil implementação Se o classificador fornecer uma lista ordenada, outros métodos estão disponíveis Borda Count Seleção dinâmica de classificadores Pesos diferentes. Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Métodos de Fusão (cont) O uso de lista de hipóteses ordenadas (ranking) é interessante quando a classe correta não aparece como a principal escolha (Top 1) do classificador. Mas está próxima da saída correta Top 2 ou 3. Bastante interessante para problemas com grandes léxicos. Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Métodos de Fusão (cont) Um método bastante usando nesses casos é o Borda Count Classificador 1 Classificador 2 Classificador 3 Resultado Classe Rank 1 5 2 4 3 Classe Rank 4 5 2 3 1 Classe Rank 2 5 4 3 1 Classe Rank 2 13 4 11 1 9 3 7 5 Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Métodos de Fusão (cont) Se classificadores geram estimação de probabilidade a posteriori, podemos utilizar outros métodos de fusão, tais como Produto Soma Max Min Média Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti Produto É uma regra bastante severa para combinar classificadores Basta que um dos classificadores não esteja de acordo com a decisão dos outros que o resultado final será penalizado. Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti Soma Como o nome diz, a soma consiste em somar todas as estimações de todos os classificadores envolvidos. Não é drástica como o produto. Resultados experimentais [Kittler 98] mostram que a soma apresenta resultados bastante robustos. Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti Min, Max Os resultados encontrados pelo Min, são bastante similares aos resultados encontrados com o produto. A regra do max considera somente o classificador que maximiza a estimação de probabilidade. Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti Média Resultado médio de todos os classificadores. Juntamente com a soma, geralmente produz os melhores resultados [Kittler 98] Bem menos drástica que o produto, porém pode ser afetada por classificadores que predizem resultados errados Outliers por exemplo. Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti Ensembles Um conjunto de classificadores gerado automaticamente Melhor desempenho do que um classificador único Baseado na idéia de diversidade Quanto mais diversidade estiver presente no ensemble, melhor será o resultado. Métodos clássicos Bagging Boosting Seleção de características Subespaços aleatórios Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti Bagging Cria classificadores para o ensemble a partir de uma redistribuição do conjunto de treinamento. O conjunto de treinamento de cada classificador é gerado selecionando-se aleatoriamente os exemplos da base de aprendizagem com reposição. Bases geradas por Bagging Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti Bagging Como pode-se observar, alguns exemplos não são selecionados para algumas bases Por exemplo, 4 na primeira base Isso faz com que provavelmente o classificador treinando com essa base tenha um erro maior do que o classificador treinado com a base original Na realidade a maioria dos classificadores bagging terão erro maior Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti Bagging Entretanto, na média, Bagging deve superar o classificador treinado na base original. Bagging é bastante interessante para algoritmos de aprendizagem instáveis Uma pequena mudança na base pode gerar grandes mudanças nas predições do algoritmo Redes neuronais, árvores de decisão. Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti Boosting O conjunto de treinamento de cada classificador é escolhido de acordo com o desempenho do classificador anterior. Os exemplos que são classificados erroneamente pelos classificadores anteriores são escolhidos mais frequentemente. Em outras palavras, novos classificadores são produzidos para mitigar o desempenho dos classificadores anteriores. Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti Boosting Suponha que nesse caso 1, seja um outlier, consequentemente um exemplo difícil de ser classificado. Sendo assim, a tendência é que ele apareça com mais frequência na base de aprendizagem. A implemetação mais comum de Boosting é o AdaBoost. Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti Bias / Variância Como vimos até agora, o objetivo da aprendizagem não é construir uma representação exata dos dados, mas sim um modelo com alta capacidade de generalização. Modelos com poucos parâmetros (underfitting) apresentam fraco desempenho Modelos com muitos parâmetros (overrfitting) apresentam fraco desempenho Uma maneira de entender melhor o desempenho dos classificadores é decompor o erro em bias e variância. Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menottiq Bias / Variância Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menottiq

Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti Bias / Variância Bias Mede a distância do resultado do classificador do seu objetivo Variância A variância entre os resultados dos classificadores (quão frequente eles divergem) Bagging / Boosting Capacidade de reduzir ambos os erros Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Seleção de Características Como visto anteriormente, os métodos de seleção de características tem como objetivo encontrar um subconjunto ótimo de características Vários subconjuntos ótimos ou quase ótimos podem existir. Ensemble Feature Selection Consiste em utilizar diferentes subconjuntos gerados durante a seleção de característica para construir um Ensemble Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Seleção de Características Considere o conjunto de classificadores gerado pela seleção de características baseado em algoritmos genéticos multi-objetivos. Classificadores fracos e médios não trazem benefícios Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Seleção de Características 1st Level Pareto 2nd-Level Population 1 2 n Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Subespaços Aleatórios Dado um conjunto inicial de características, essa técnica consiste em selecionar N característica aleatórias para construir um ensemble de tamanho M 1 3 4 6 Conjunto inicial 2 3 7 8 Decisão Fusão 1 2 3 4 5 6 7 8 4 5 6 8 Média 3 5 6 7 Subespaços Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Subespaços Aleatórios Experimentos mostram que os subespaços conseguem resultados melhores do que um único classificador treinado com o classificador inicial Quanto maior o tamanho do ensemble, maior é a complexidade, entretanto. A ideia é que a diversidade dos classificadores pode trazer benefícios para a decisão final. Combinação de classificadores fracos Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti

Referências Bibliográficas Kittler, Hatef, Duin & Matas On Combining Classifiers, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol 20, n.3, pp.226-240, 1998. Ho, The Random Subspace Method for Constructing Decision Forests, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 20, n.8, pp. 832-844, 1998. Kittler, Combining Classifiers: A theoretical framework, Pattern Analysis & Applications, vol.1, n.1, pp 18-27, 1998. Bishop, Pattern Recognition and Machine Learning, Springer, 2006, Capítulo 14. Duda, Hart & Sortk Pattern Classification, 2nd, Wiley & Sons, 2000, Capítulo 9 (9.5, 9.6 & 9.7). Theodoridis & Koutroumbas, Pattern Recognition, 4th, Academic Press, 2009, Capítulo 4 (4.21 & 4.22) Reconhecimento de Padrões UFOP-PPGCC - Prof. David Menotti