Introdução à Aprendizagem Estatística Prof. Dr. Hemerson Pistori INOVISAO – Pesquisa, Desenvolvimento e Inovação em Visão Computacional Universidade Católica.

Slides:



Advertisements
Apresentações semelhantes
Geometria Computacional Fecho Convexo II
Advertisements

Aprendizado de Máquina
UNIVERSIDADE FEDERAL DE UBERLÂNDIA ENGENHARIA CIVIL INTRODUÇÃO À ALGORITMOS Professora: Fabíola Gonçalves.
Construção de Algoritmos 2
Amintas engenharia.
Lógica de Programação Prof. Msc. Raul Paradeda Aula 4 Entrada/Saída.
OTIMIZAÇÃO DO PROJETO DE REDES URBANAS BASEADO NO PROBLEMA DE STEINER
Medidas de Dispersão.
TEORIA DA COMPUTAÇÃO Parte III  Máquina de Turing
Mineração de Dados Avaliação de Classificadores
10º CAPÍTULO Segmentação de imagem.
9 de Março de 2006Trajectória de um Projéctil1 Pedro Barahona DI/FCT/UNL Introdução aos Computadores e à Programação 2º Semestre 2005/2006.
6 Outubro de 2005Trajectória de um Projéctil1 Jorge Cruz DI/FCT/UNL Introdução aos Computadores e à Programação 1º Semestre 2005/2006.
Ciclos, Vectores e Gráficos Simulação da Queda de Corpos II
Problemas de Forma Não-padrão
CÁLCULO DA INVERSA DA BASE
Estatística Descritiva Aula 02
Medidas de Tendência Central DADOS AGRUPADOS
Metodologia Científica e Tecnológica
Inteligência Artificial I
Inteligência Artificial
Utilização de Ferramentas Livres em um Curso de Visão Computacional
Funções de Núcleo Série: Por que não me contaram antes isto Prof. Dr
Redução de Atributos Série: Por que não me contaram antes isto Prof. Dr. Hemerson Pistori www. gpec. ucdb. br/pistori Universidade Católica Dom Bosco.
Aprendizagem - Neurônio de McCulloch & Pitts Série: Por que não me contaram antes isto Prof. Dr. Hemerson Pistori www. gpec. ucdb. br/pistori Univesidade.
Sistema Automático para Medição e Classificação de Couro Bovino
1 Complexidade de Algoritmos Complexidade de pior caso Complexidade de melhor caso de uso bem menos freqüente em algumas situações específicas Complexidade.
Recursividade Inhaúma Neves Ferraz
Arquivos Seqüenciais Inhaúma Neves Ferraz
Estatística 8 - Distribuições Amostrais
Reconhecimento de Padrões Seleção de Características
Reconhecimento de Padrões Aprendizagem Supervisionada (KNN)
Reconhecimento de Padrões Inteligência de Enxame
Rganização de Computadores Melhorias de Desempenho com Pipelines Capítulo 6 – Patterson & Hennessy Organização de Computadores Melhorias de Desempenho.
Programação orientada a objetos com Java
Aula 6 Subprogramas Universidade do Vale do Rio dos Sinos
Estatística Aplicada (Aula 4)
Classes e objetos P. O. O. Prof. Grace.
Listas e algoritmos (em Scratch)
Derivada e integral de uma função
Aprendizado de Máquina
Engenharia de Software para Sistemas de Apoio a Decisão
Aprendizado de Máquina Aula 8
Alexandre Xavier Falcão & David Menotti
Funcionamento básico de um computador
Tópicos Avançados de Base de Dados
Aula 02 Variáveis, Matrizes, Gráficos
Salas de Matemática.
Funções e suas propriedades
Modelagem Estatística
ESTATÍSTICA.
Aprendizado de Máquina Prof.: Dino R. C. Franklin Aluno.: Thiago Fialho Q. L.
Amostragem Pontos mais importantes:
Introdução e Busca Cega
Prof. Celso Cardoso Neto. (2) ALINHAMENTO Caso 1.
Identificação de Voz Marcelo Lucena André Palhares.
Agenda - Aula 2 Introdução (Computador Digital) Processadores
1.
Linguagem e Ambiente Scratch
Algoritmos e Estruturas de Dados I – Recursão
1 A COMPUTAÇÃO MODERNA Valdemar W. Setzer Depto. de Ciência da Computação da USP
Inferência Estatística
Nome alunos 1 Título UC. Título – slide 2 Conteúdo Conteúdo 2.
BCC /01 Aula Teórica 09 Funções Material Didático Proposto. 1 BCC701 – Programação de Computadores I Universidade Federal de Ouro Preto Departamento.
Professor Antonio Carlos Coelho
Diagrama Polar 请看下页.
Medidas de Dispersão Aula 8.
Patrícia A. Jaques (orientadora)‏
1 INOVISÃO: Grupo de Pesquisa, Desenvolvimento E INOVAÇÃO em VISÃO Computacional Prof. Dr. Hemerson Pistori (Coord.) Universidade Católica Dom Bosco (UCDB)
FEATURE SELECTION. Introdução  Estudo de metodologias relacionadas a seleção de atributos  Maldição da dimensionalidade  O número de atributos do desenvolvedor.
Transcrição da apresentação:

Introdução à Aprendizagem Estatística Prof. Dr. Hemerson Pistori INOVISAO – Pesquisa, Desenvolvimento e Inovação em Visão Computacional Universidade Católica Dom Bosco – UCDB Campo Grande, MS Brasil

Sumário  Algoritmo trivial: cálculo de média e distância Euclidiana  Limitações do algoritmo trivial  Algoritmo menos trivial: cálculo de média, matriz de variância e co-variância, distância de Mahalanobis  Limitações do algoritmo menos trivial  Distribuições paramétricas, semi-paramétricas e não-paramétricas  Modelos de Mistura de Gaussianas  Formulação Bayesiana

Algoritmo Trivial: Média e Euclidiana VIÁVEIS: 5,4,6,4,5,4,4,2,4,4,5,1,5 MÉDIA = 4 INVIÁVEIS: 13,13,12,1,15,15,18,14,17,10,11,16,9 MÉDIA = TESTE: Primeira Limitação

Algoritmo Menos Trivial: Média, Desvio e Mahalanobis 1448 VIÁVEIS: 5,4,6,4,5,4,4,2,4,4,5,1,5 MÉDIA = 4 DESVIO = 1.3 INVIÁVEIS: 13,13,12,1,15,15,18,14,17,10,11,16,9 MÉDIA = 14 DESVIO = TESTE:

Alg. Menos Trivial: Média, Var-Covar e Mahalanobis E quando uma única medida não é suficiente ? (característica / atributo / variável / dimensão) A B C

Alg. Menos Trivial: Média, Var-Covar e Mahalanobis

Scilab Script: → Ensino → Computer Vision → Material de Apoio → Medidas de Similaridade

Algoritmo Menos Trivial: Limitações – Multimodal VIÁVEIS INVIÁVEIS Distância de Mahalanobis do ponto 13: Azul = 0.4 Alaranjado: 1.16

Modelos Não Paramétricos - Histogramas APRENDIZAGEM – TREINAMENTO - Gerar histograma (contar e armazenar) CLASSIFICAÇÃO – TESTE - Identificar bin que “contém” a amostra a ser classificada - Retornar classe com “bin mais alto”

Modelos Não Paramétricos - Histogramas

Atributo 1Atributo 2 FREQUÊNCIAFREQUÊNCIA

Modelos Semi-Paramétricos Paramétricos (E.g: Gaussiana): Negativo: assume uma forma pré-determinado para a distribuição Positivo: exige menos espaço de armazenamento Não-paramétricos (E.g: Histograma): Negativo: exige mais espaço de armazenamento Positivo: não assume forma pré-determinada Semi-paramétricos (E.g: Modelos de Mistura de Gaussianas) Busca “o melhor dos dois mundos” Flexibilidade sem muito custo em memória

Modelo de Mistura de Gaussianas

PROBLEMAS: - Não temos informações sobre qual Gaussiana gera que amostra - Não é possível aplicar formulas fechadas (como nos algoritmos triviais) - Não basta realizar contagens simples (como no caso do histograma) SOLUÇÃO: - Algoritmos de melhoramento iterativo: chutar uma primeira resposta e ir Melhorando a resposta até que um determinado critérios de parada Seja atingido. - Problema de máximo local - Algoritmo muito utilizado: Expectation-Maximization

Modelo de Mistura de Gaussianas MOSTRAR EM EM EXECUÇÃO UTILIZANDO SAÍDAS DE APPLETS MOSTRAR MÁXIMOS LOCAIS NO PRÓXIMO SLIDE – EXPLICAR EM

Modelo de Mistura de Gaussianas MOSTRAR EM EM EXECUÇÃO UTILIZANDO SAÍDAS DE APPLETS MOSTRAR MÁXIMOS LOCAIS NO PRÓXIMO SLIDE – EXPLICAR EM