Reconhecimento de Padrões Dissimilaridade

Slides:



Advertisements
Apresentações semelhantes
Operações sobre o Texto
Advertisements

Software Básico Silvio Fernandes
ANÁLISE DISCRIMINANTE
Mineração de Dados Avaliação de Classificadores
Medida do Tempo de Execução de um Programa
Reconhecimento de Padrões Tipos de Aprendizagem
Reconhecimento de Padrões Classificadores Lineares
Reconhecimento de Padrões Segmentação
Introdução à Otimização
Medida do Tempo de Execução de um Programa
Reconhecimento de Padrões Seleção de Características
Reconhecimento de Padrões Receiver Operating Characteristics (ROC)
Reconhecimento de Padrões EigenFaces
Reconhecimento de Padrões Teoria da Decisão Bayesiana David Menotti, Ph.D. Universidade Federal de Ouro Preto (UFOP) Programa.
Medida do Tempo de Execução de um Programa David Menotti Algoritmos e Estruturas de Dados I DECOM – UFOP.
Reconhecimento de Padrões Teoria da Decisão Bayesiana
Medida do Tempo de Execução de um Programa
Reconhecimento de Padrões Combinando Classificadores
Universidade Federal de Ouro Preto (UFOP)
Reconhecimento de Padrões PCA David Menotti, Ph.D. Universidade Federal de Ouro Preto (UFOP) Programa de Pós-Graduação em Ciência.
Reconhecimento de Padrões Aprendizagem Supervisionada (KNN)
Reconhecimento de Padrões Principal Component Analysis (PCA) Análise dos Componentes Principais David Menotti, Ph.D. Universidade.
Reconhecimento de Padrões Segmentação
Iana Alexandra Alves Rufino
NÃO DETERMINISMO Marcus Eduardo Cabral Seabra
Descoberta de Conhecimento:
Carolina Fonseca Neumar Ribeiro
Instituto Tecnológico da Aeronáutica – ITA Divisão de Ciência de Engenharia Eletrônica e Computação EE-09 Inteligência Artificial Prof. Adilson Marques.
Universidade de Uberaba Campus Rondon – Uberlândia V Simpósio de Inovação Tecnológica Graduação em Aluno(s):, Orientadores(as):, Título do Trabalho; pode.
INF 1771 – Inteligência Artificial
INF 1771 – Inteligência Artificial
INF 1771 – Inteligência Artificial
Aprendizado de Máquina
Site: Estatística Prof. Edson Nemer Site:
Inteligência Artificial
Alexandre Xavier Falcão & David Menotti
Aprendizagem de Máquina - Agrupamento
Aprendizado Baseado em Instâncias – Algoritmo k-NN
Classificação. Classificação: Atribuição a uma classe (rótulo de um atributo categórico). Classifica dados (constrói um modelo) baseado em um conjunto.
K-Means / Clustering.
II Workshop de Dissertação Pós-Graduação em Ciência da Computação Faculdade de Computação – FACOM Universidade Federal de Uberlândia – UFU Dezembro/2008.
Aula 03 – BCC202 Análise de Algoritmos (Parte 1) Túlio Toffolo www
Bruno Florencio Pinheiro Orientador: Renato Fernandes Corrêa
Fábio de Oliveira Borges
INF 1771 – Inteligência Artificial
Mineração da Web Recuperação de Informação
Ademir Rafael Marques Guedes
Reconhecimento e Verificação de Assinaturas
Universidade Estadual Paulista “Júlio de Mesquita Filho” FCLassis – Depto de Ciências Biológicas Programa de Pós-graduação em Biociências Área de Concentração.
Universidade Estadual Paulista “Júlio de Mesquita Filho” FCLassis – Depto de Ciências Biológicas Programa de Pós-graduação em Biociências Área de Concentração.
Análise de Agrupamentos Marcílio Souto DIMAp/UFRN.
Universidade Estadual Paulista “Júlio de Mesquita Filho” FCLassis – Depto de Ciências Biológicas Programa de Pós-graduação em Biociências Área de Concentração.
Locus Localização Eudes Cavalcanti.
Mineração de Dados: Classificação e Predição
U SO DA S ELEÇÃO DE P ROTÓTIPOS P ARA O TIMIZAR A C LASSIFICAÇÃO B ASEADA EM D ISSIMILARIDADE Felipe Soares Queiroga (fsq)
Recuperação Inteligente de Informação
Classificação/Categorização Christian Diego – cdad Icamaan Viegas – ibvs.
NOÇÕES DE ESTATÍSTICA.
Uma Interface em Linguagem Natural em Português para Pergunta-Resposta na Web Grupo de Inteligência Computacional Mestrado em Ciência da Computação Aluno:
CIn-UFPE1 Recuperação de Informação Modelos de Recuperação de Documentos Flávia Barros.
Aprendizado da rede O aprendizado, na maioria das vezes, constitui no ajuste do conjunto de pesos de modo que a rede consiga executar uma tarefa específica.
Disciplina Engenharia da Qualidade II
Classificação de Imagens
FEATURE SELECTION. Introdução  Estudo de metodologias relacionadas a seleção de atributos  Maldição da dimensionalidade  O número de atributos do desenvolvedor.
Mineração de Dados Classificação Felipe Carvalho – UFES 2009/2.
Gráficos com escalas logarítmicas
Introdução Coloque o texto aqui coloque o texto aqui coloque o texto aqui coloque o texto aqui coloque o texto aqui coloque o texto aqui coloque o texto.
Reconhecimento de Padrões Introdução David Menotti Universidade Federal de Ouro Preto (UFOP) Programa de Pós-Graduação em Ciência.
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 12 Aprendizado não Supervisionado Mapas auto-organizáveis Max Pereira.
Transcrição da apresentação:

Reconhecimento de Padrões Dissimilaridade Universidade Federal de Ouro Preto (UFOP) Programa de Pós-Graduação em Ciência da Computação (PPGCC) Reconhecimento de Padrões Dissimilaridade David Menotti, Ph.D. www.decom.ufop.br/menotti

Introdução Reconhecimento de padrões em geral baseia-se na extração de características capazes de discriminar objetos de diferentes classes. Em alguns casos, porém, a extração de características se torna complicada Desconhecimento do problema Dificuldade em definir características

Introdução Nesses casos, medidas de dissimilaridade se tornam bastante interessantes. Dissimilaridade Valor que expressa a diferença entre dois objetos Zero quando os objetos são idênticos. Dissimilarity-based Pattern Recognition

Dissimilaridade para Representação A percepção humana nos permite reconhecer características comuns em uma coleção de objetos. Em alguns casos pode ser difícil formalizar esse conhecimento. Considere as figuras abaixo

Dissimilaridade para Representação Várias medidas podem ser usadas Em geral depende do problema

Motivação Objetos similares podem ser agrupados Pertencem a mesma classe. A comparação sempre se dá com base em um objeto de referência. Um ponto de vista particular Características básicas. Em outras palavras, levando em consideração o contexto. Por exemplo, dois irmãos podem não ser parecidos, porém quando comparados na presença de seus pais, pode-se constatar que são parecidos.

Matriz de Dissimilaridade A representação por dissimilaridade é baseada na comparação entre todos os objetos envolvidos. Isso nos leva a uma matriz D, na qual cada elemento da matriz representa o valor de dissimilaridade entre dois objetos. Considere por exemplo, os seguintes objetos de duas classes:

Matriz de Dissimilaridade A matriz de dissimilaridade ficaria assim

Classificando por Dissimilaridade Vizinho mais próximo Classificar um objeto X desconhecido na classe com menor dissimilaridade. Não usa a matriz de dissimilaridade Class(X) = label(argmin(di))

Classificando por Dissimilaridade Espaço de dissimilaridade Utiliza cada coluna da matriz de dissimilaridade como um vetor de características. Qualquer algoritmo de classificação pode ser utilizado. Seleção dos vetores pode ser benéfica.

Classificando por Dissimilaridade Considere por exemplo 3 classes Classe 1: 4 objetos Classe 2: 3 objetos Classe 3: 3 objetos Note que os vetores de características, (colunas) são similares para objetos da mesma classe. Como classificar um exemplo novo X? Comparar com a base de referência. Gerar o vetor de dissimilaridades. Matriz de Dissimilaridade Hipotética

Classificador Universal A idéia de dissimilaridade pode ser estendida, permitindo assim a construção de um classificador universal. Bastante interessante quando o número de classes é bastante grande Verificação de Assinaturas Identificação de Autoria Recuperação de Imagens Converter um problema de N classes para duas classes: Similar ou Não Similar.

Classificador Universal Para tornar isso possível, é necessário contar com um conjunto de referência. Diferentemente da classificação baseada em dissimilaridade, nesse caso a dissimilaridade é calculada para o vetor de característica. Se dois objetos pertencem a mesma classe, os componentes do vetor de dissimilaridade terão valores próximo de zero, caso contrário, terão valores longe de zero. V = |A – B|

Estudo de Caso Identificação de Autoria Suponha que você precise construir um sistema que diga se o documento foi escrito por uma determinada pessoa. Para treinar seu sistema, estão disponíveis 20 autores, sendo que cada autor contribui com 10 amostras de documentos. Opção 1: Criar um classificador com 20 classes O que acontece se novos autores forem adicionados? Opção 2: Dissimilaridade

Exemplos de Textos Autor 1 Autor 2

Calculando Dissimilaridades Vetor Próximo de Zero Calculando Dissimilaridades Base de Treinamento |A-B| Vetor Próximo de Zero (A) (B) |C-D| Vetor Longe de Zero (C) (D) |A-C|

Treinamento Gerar os vetores de dissimilaridade para duas classes Genuíno Vetores resultantes das comparações entre os exemplos de mesmos autores Vetores próximo de zero Falsificação Vetores resultantes da comparações entre os exemplos de diferentes autores Vetores longe de zero

Teste Dado um exemplo questionado de um certo autor X Comparar esse exemplo com as referências do autor X. Se o exemplo questionado for realmente do autor X, a tendência é que essa comparação gere vetores próximos de zero. Logo, pertencente a classe de genuíno.

Teste Como geralmente existe mais de um exemplo de referência, algum método de tomada de decisão deve ser utilizado Voto Max

Vantagem Adição de novos objetos sem a necessidade de re-treinar o classificador. Redução de um problema de N classes para 2 classes.