Perceptron Simples Algoritmo do Bolso com catraca

Slides:



Advertisements
Apresentações semelhantes
Construção de listas de decisão Os tópicos anteriores tratam de indução de conceitos que podem ser descritos usando uma única região de decisão Neste tópico.
Advertisements

Deadlocks Professora: Lúcia Drummond. Deadlocks Recursos: hardware ou informação Preemptivo Não preemptivo Uso do Recurso: 1. Pedido (Request ou Open)
REDES AUTO-ORGANIZAVEIS (MAPAS AUTO-ORGANIZÁVEIS)
Amintas engenharia.
ANÁLISE DISCRIMINANTE
ANÁLISE DISCRIMINANTE
Q-Q plots Construídos a partir das distribuições marginais de cada componente do vetor p-variado. São de fato um gráfico do quantil amostral versus quantil.
Celso C. Ribeiro Caroline T. Rocha
Métodos para representação de estruturas hierárquicas
Universidade Federal de Campina Grande – UFCG Centro de Engenharia Elétrica e Informática – CEEI Departamento de Sistemas e Computação – DSC Máquina de.
Redes Neurais Artificiais (RNA): Aprendizado
Mineração de Dados Avaliação de Classificadores
PERCEPTRON (CONTINUAÇÃO)
Backpropagation Through Time
AULA 03 PERCEPTRON SIMPLES.
AULA04 PERCEPTRON MULTI-CAMADAS MULTI-LAYER PERCEPTRON (MLP)
Aprendizado de Máquina
Prof. Júlio Cesar Nievola
Prof. Júlio Cesar Nievola
Algoritmo de Khachiyan Prof. Júlio Cesar Nievola.
Algoritmos Construtivos
Redes de Hopfield Redes Neurais COPIN
Pesquisa em Memória Primária
David Menotti Algoritmos e Estruturas de Dados I DECOM – UFOP
Reconhecimento de Padrões Classificadores Lineares
Pesquisa em Memória Primária
David Menotti Estruturas de Dados I DECOM – UFOP
Inteligência Artificial
Ordenação Facilitar e aumentar a eficiência das operações de pesquisa sobre esses dados Pode ser crescente ou decrescente A seqüência de entrada, normalmente,
Ordenação Facilitar e aumentar a eficiência das operações de pesquisa sobre esses dados Pode ser crescente ou decrescente A seqüência de entrada, normalmente,
Hashing (Espalhamento)
INF 1771 – Inteligência Artificial
INF 1771 – Inteligência Artificial
Buscas em Grafos Prof. André Renato 1º Semestre/2012
Insertion Sort.
Aprendizado de Máquina Aula 8
Aula prática 8 Ponteiros Monitoria de Introdução à Programação
Teoria dos Grafos Caminhos e Noção de Grafos com pesos
Capítulo 3 Estruturas de Controle
UNIVERSIDADE FEDERAL DE UBERLÂNDIA FACULDADE DE MATEMÁTICA
Conjuntos São agrupamentos formados a partir de uma característica comum. Aos componentes do conjunto, dá-se o nome de elementos.
Carlos Oberdan Rolim Ciência da Computação Sistemas de Informação
Redes Neurais Prof. Alex F. V. Machado.
Introdução e Busca Cega
Aula 3 Vetores e Listas. Arrays (vetores) Array – sequência de elementos do mesmo tipo. Tamanho do Array – seu número de elementos (número fixo) Consequência:
Estruturas de Dados, Algoritmos e Complexidade
Redes Bayesianas – Inferência
Algoritmos e Estruturas de Dados I – Recursão
Redes Neurais Artificiais
Algoritmos e Estruturas de Dados I – Estruturas de Dados
Equações algébricas e transcendentais
Progressão Aritmética – P.A. Observe as sequências numéricas abaixo:
Programação Dinâmica.
Prof. Anne Magály de Paula Canuto
Universidade Federal de Lavras Departamento de Ciência da Computação
Regressão e Previsão Numérica.

Complexidade de Computação Katia Guimarães. Avaliando a Qualidade de um Algoritmo É preciso ter bem definido –O que é dado de entrada e –O que é esperado.
Analise de Algoritmos e Notação Assintótica
Luana Bezerra Batista Redes Neurais Luana Bezerra Batista
Busca Competitiva Disciplina: Inteligência Artificial
NÚMEROS REAIS.
Programação Computacional Aula 8: Entrada e Saída pelo Console Prof a. Madeleine Medrano
FÍSICA.
Algoritmo de Transportes Objecto de Aprendizagem Manuel Pina MarquesDEIG
Treinamento Quando são criadas, as RNA ainda não são capazes de resolver os problemas, elas precisam ser treinadas, ensinadas, do mesmo jeito que as pessoas,
Algoritmo e Estrutura de Dados I Introdução ao conceito de algoritmo Márcia Marra
Modelo MCP O modelo criado em 1943 funciona de modo semelhante. Os sinais de entrada são números (dados), os neurotransmissores são “pesos” numéricos associados.
PC - Semana61 MODELANDO SISTEMAS LTI NO DOMÍNIO DA FREQUÊNCIA.
Professor: Gerson Leiria Nunes.  Sistemas de tempo discreto  Diagramas de bloco  Classificação dos sistemas.
Transcrição da apresentação:

Perceptron Simples Algoritmo do Bolso com catraca

Perceptron - Características O perceptron é usado para conjuntos de treinamento linearmente separáveis: Inclusão de tendência (“bias”): No algoritmo de aprendizagem do Perceptron busca-se um vetor W que tenha projeção positiva (produto interno) com todos os exemplos positivos e projeção negativa com todos os exemplos negativos. A aprendizagem do perceptron sempre tem sucesso em tempo finito para um conjunto de treinamento finito e separável de exemplos de treinamento.

Algoritmo do Perceptron 1. Fazer W ser o vetor nulo. 2. Selecionar um exemplo de treinamento Ek (com a correspondente classificação Ck). Isto pode ser feito de maneira cíclica (em ordem) através dos exemplos de treinamento ou pegando um exemplo aleatoriamente. 3. Se W classifica Ek corretamente, isto é, se: {W.Ek  0 e Ck = +1} ou se {W.Ek < 0 e Ck = -1} Então: não fazer nada. Senão Passo de alteração: Modificar W somando ou subtraindo Ek de acordo com a saída correta ser +1 ou -1: W’ = W + CkEk. 4. Ir ao passo 2.

Perceptron - conclusões Para um conjunto finito de exemplos de treinamento E, com componentes inteiros (ou racionais), o algoritmo de aprendizagem do perceptron, em tempo finito: Produzirá um vetor peso que satisfaz todos os exemplos de treinamento (se e somente se E é separável); ou Abandonará e reutilizará um vetor peso (se e somente se E é não-separável). Se um conjunto de exemplos de treinamento E é não-separável, então por definição não existe um vetor de pesos W que classifique corretamente todos os exemplos de treinamento em E utilizando o algoritmo de aprendizagem do perceptron. A alternativa mais natural é encontrar um vetor de pesos W* que classifique tantos exemplos de treinamento quanto possível de E. Tal conjunto de pesos é chamado de ótimo.

Perceptron - conclusões O algoritmo de aprendizagem do perceptron tem comportamento pobre: se o algoritmo é terminado, mesmo após um grande número de iterações, não se tem garantia da qualidade dos pesos que são produzidos, já que o mesmo usa somente reforço negativo, ignorando totalmente os exemplos que são corretamente classificados. O algoritmo do bolso leva em conta as classificações corretas mantendo um conjunto de pesos em separado Wbolso “no bolso”, juntamente com o número de iterações consecutivas para a qual Wbolso classificou corretamente os exemplos de treinamento escolhidos.

Algoritmo do Bolso 0. Ajustar W como o vetor nulo. 1. Selecionar um exemplo de treinamento, Ek, aleatoriamente (com a correspondente classificação Ck). 2. Se W classifica Ek corretamente, isto é, {W.Ek  0 e Ck = +1} ou {W.Ek < 0 e Ck = -1} Então: 2a. Se a seqüência atual de classificações corretas com W é maior que seqüência de classificações corretas para o vetor peso Wbolso no bolso: 2aa. Substitua os pesos no bolso Wbolso por W e grave o número de vezes que ela é correta. Senão: 2b. Passo de alteração: Modifique W somando ou subtraindo Ek em função da saída correta Ck ser +1 ou -1: W’= W + CkEk. 3. Vá para o passo 2.

Algoritmo do Bolso Para problemas de tamanho médio e grande o algoritmo do bolso normalmente não produz pesos ótimos após um razoável número de iterações, mas produz bons pesos. Na execução do algoritmo do bolso não há nada que previna um mau conjunto de pesos de ter uma “seqüência feliz” de respostas corretas e acabe substituindo um bom conjunto de pesos no bolso. Pior ainda, se a “seqüência feliz” for longa então o conjunto de maus pesos pode permanecer no bolso por um grande número de iterações. Para evitar isto, utiliza-se o algoritmo do bolso com catraca, no qual, para conjuntos finitos de exemplos de treinamento tem-se melhores resultados.

Algoritmo do Bolso com Catraca 0. Ajustar W como o vetor nulo. 1. Selecionar um exemplo de treinamento, Ek, aleatoriamente (com a correspondente classificação Ck). 2. Se W classifica Ek corretamente, isto é, {W.Ek  0 e Ck = +1} ou {W.Ek < 0 e Ck = -1}, então: 2a. Se a seqüência atual de classificações corretas com W é maior que seqüência de classificações corretas para o vetor peso Wbolso no bolso: 2aa. Se W classifica corretamente mais exemplos de treinamento que Wbolso : 2aaa. Substitua os pesos no bolso Wbolso por W e grave o número de vezes que ela é correta. Senão: 2b. Passo de alteração: Modifique W somando ou subtraindo Ek em função da saída correta Ck ser +1 ou -1: W’= W + CkEk. 3. Vá para o passo 1.