Carregar apresentação
1
Inteligência Artificial
28/04/2017 Inteligência Artificial Métodos Geométricos Docente: André C. P. L. F. de Carvalho PAE: Everlândio Fernandes
2
André Ponce de Leon de Carvalho
28/04/2017 Principais tópicos Modelo numérico de classificação Análise discriminante e regressão logística Motivação para redes neurais Arquitetura e aprendizado Principais modelos SVMs André Ponce de Leon de Carvalho
3
Discriminante linear Busca modelo com melhor ajuste aos dados
Representado matematicamente Fronteira de decisão = reta (hiperplano) Combinação linear dos atributos preditivos Soma ponderada Valores dos pesos? Redes neurais Classificação ou regressão Glicose Plaquetas y = ax + b g = px + b g = -2p +15 Função de classificação: f(x) = w0 + w1x1 + w2x
4
Regressão logística Estima probabilidade que um exemplo pertence a uma dada classe Distância a fronteira de decisão definida por uma função linear Problema: -∞< f(x) < -∞ 0 < f(x) < 1 Solução: usar chance e log(chance)
5
Regressão logística Encontrar f(x) que modela log(Chance)
Prob. Chance Log(Chance) 0,5 50:50 = 0,9 90:10 = ,19 0, :1 = ,9 0,01 1:99 = 0, ,6 0,001 1:999 = 0, ,9 Encontrar f(x) que modela log(Chance) Estima probabilidade usando mesmo modelo linear de análise de discriminante
6
André Ponce de Leon de Carvalho
Redes Neurais Sistemas distribuídos inspirados no cérebro humano Compostas por várias unidades de processamento (“neurônios”) Interligadas por um grande número de conexões (“sinapses”) Eficientes em várias aplicações André Ponce de Leon de Carvalho
7
André Ponce de Leon de Carvalho
Neurônio natural Um neurônio simplificado: Dendritos Axônio Sinal Corpo Sinapse André Ponce de Leon de Carvalho
8
André Ponce de Leon de Carvalho
Neurônio artificial Modelo de um neurônio abstrato Entradas Pesos Saída w f w w w f w Sinal w André Ponce de Leon de Carvalho
9
André Ponce de Leon de Carvalho
28/04/2017 Conceitos básicos Principais aspectos das RNA Arquitetura Unidades de processamento (neurônios) Conexões Topologia Aprendizado Algoritmos Paradigmas André Ponce de Leon de Carvalho
10
Unidades de processamento
28/04/2017 Unidades de processamento Funcionamento Recebe entradas de conjunto de unidades A Aplica função sobre entradas Envia resultado para conjunto de unidades B Entrada total x1 w1 w2 wm x2 f (åxiwi) xm André Ponce de Leon de Carvalho
11
André Ponce de Leon de Carvalho
28/04/2017 Conexões Definem como neurônios estão interligados Codificam conhecimento da rede Tipos de conexões: Excitatória: (wik(t) > 0) Inibitória: (wik(t) < 0) André Ponce de Leon de Carvalho
12
André Ponce de Leon de Carvalho
28/04/2017 Topologia Número de camadas Cobertura das conexões Arranjo das conexões Completamente Parcialmente Localmente RN Feedforward Recorrente André Ponce de Leon de Carvalho
13
Algoritmos de aprendizado
28/04/2017 Algoritmos de aprendizado Conjunto de regras que define como ajustar os parâmetros da rede Principais formas de ajuste Correção de erro Hebbiano Competitivo Termodinâmico (Boltzmann) André Ponce de Leon de Carvalho
14
Paradigmas de aprendizado
28/04/2017 Paradigmas de aprendizado Define informações externas que são passadas a rede durante seu aprendizado Principais abordagens Supervisionado Não supervisionado Semi-supervisionado Reforço Híbrido André Ponce de Leon de Carvalho
15
André Ponce de Leon de Carvalho
28/04/2017 Perceptron Primeira rede - Rosemblat, 1958 Modelo de neurônio de McCulloch-Pitts Treinamento Supervisionado Correção de erro wi(t)= wi(t-1) + Dwi Dwi = hxi d Dwi = hxi (y – f(x)) Teorema de convergência x1 w1 w2 wm x2 f (åxiwi) xm André Ponce de Leon de Carvalho
16
André Ponce de Leon de Carvalho
Perceptron Resposta / saída da rede Aplica função limiar sobre soma total de entrada recebida por um neurônio f(u) f(u-) u u- f(u-) = sinal (u-) f(net) = f(u-) André Ponce de Leon de Carvalho
17
Algoritmo de treinamento
28/04/2017 Algoritmo de treinamento 1 Iniciar todas as conexões com wi = 0 2 Repita Para cada par de treinamento (X, y) Calcular a saída f(net) Se (y ¹ f(net)) Então Atualizar pesos do neurônio Até o erro ser aceitável André Ponce de Leon de Carvalho
18
André Ponce de Leon de Carvalho
28/04/2017 Exemplo Dada uma rede Perceptron com: Três entradas, pesos iniciais w1 = 0.4, w2 = -0.6 e w3 = 0.6, e limiar (viés) = 0.5: Ensinar a rede com os exemplos (001, -1) e (110, +1) Utilizar taxa de aprendizado = 0.4 Definir a classe dos exemplos: 111, 000, 100 e 011 André Ponce de Leon de Carvalho
19
André Ponce de Leon de Carvalho
28/04/2017 Exemplo x1 x2 x3 w1 w2 w3 f(x) Situação desejada -1 001 Viés 110 +1 André Ponce de Leon de Carvalho
20
André Ponce de Leon de Carvalho
28/04/2017 Exemplo - treinamento a) Treinar a rede a.1) Para o exemplo (y = -1) Passo 1: definir a saída da rede u- = -1(0.5) + 0(0.4) + 0(-0.6) + 1(0.6) = 0.1 f(x) = +1 (uma vez 0.1 ³ 0) Passo 2: atualizar pesos (y h(x)) w0 = (-1)(-1 - (+1)) = 1.3 w1 = (0)(-1 - (+1)) = 0.4 w2 = (0)(-1 - (+1)) = -0.6 w3 = (1)(-1 - (+1)) = -0.2 -1 001 110 +1 wi(t)= wi(t-1) + hxi(y – f(x)) André Ponce de Leon de Carvalho
21
André Ponce de Leon de Carvalho
Exemplo - teste Utilizar a rede treinada para classificar os exemplos 111, 000, 100 e 011 Pesos aprendidos: 0.5, 1.2, 0.2 e -0.2 b.1) Para o exemplo 111 u- = -1(0.5) + 1(1.2) + 1(0.2) + 1(-0.2) = 0.7 f(x) = 1 (porque 0.7 ³ 0) ) Þ classe +1 b.2) Para o exemplo 000 u- = -1(0.5) + 0(1.2) + 0(0.2) + 0(-0.2) = -0.5 f(x) = -1 (porque -0.5 < 0) Þ classe -1 André Ponce de Leon de Carvalho
22
André Ponce de Leon de Carvalho
Exercício Seja o seguinte cadastro de pacientes: Nome Febre Enjôo Manchas Dores Diagnóstico João sim sim pequenas sim doente Pedro não não grandes não saudável Maria não sim pequenas não saudável José sim sim grandes sim doente Ana sim não pequenas sim saudável Leila não não grandes sim doente André Ponce de Leon de Carvalho
23
André Ponce de Leon de Carvalho
Exercício Ensinar uma rede do tipo Perceptron a distinguir: Pacientes potencialmente saudáveis Pacientes potencialmente doentes Testar a rede para novos casos (Luis, não, não, pequenas, sim) (Laura, sim, sim, grandes, sim) André Ponce de Leon de Carvalho
24
Problemas com Perceptron
28/04/2017 Problemas com Perceptron 0, 0 ® 0 0, 1 ® 1 1, 0 ® 1 1, 1 ® 0 1 André Ponce de Leon de Carvalho
25
Rede Multi-Layer Perceptron
28/04/2017 Rede Multi-Layer Perceptron Arquitetura de RNA mais utilizada Uma ou mais camadas intermediárias de neurônios Funcionalidade Uma camada intermediária: qualquer função contínua ou Booleana Duas camadas intermediárias: qualquer função Originalmente treinada com o algoritmo Backpropagation André Ponce de Leon de Carvalho
26
André Ponce de Leon de Carvalho
28/04/2017 MLP e Backpropagation camadas intermediárias camada de saída entrada conexões André Ponce de Leon de Carvalho
27
André Ponce de Leon de Carvalho
28/04/2017 Backpropagation Treina a rede com pares entrada-saída Cada vetor de entrada é associado a uma saída desejada Treinamento em duas fases, cada uma percorrendo a rede em um sentido Fase forward Fase backward Sinal (forward) Erro (backward) André Ponce de Leon de Carvalho
28
André Ponce de Leon de Carvalho
Backpropagation Treinamento Supervisionado Ajuste dos pesos: Dwij = hxi dj Se f (net) for uma função sigmoidal, f´(net)=f(net)(1–f(net) Treinamento não é garantido de convergir Gradiente da função erroj = André Ponce de Leon de Carvalho
29
André Ponce de Leon de Carvalho
Backpropagation Função de ativação Não linear Diferenciável , contínua e, geralmente, não decrescente Sigmoidal f(x) = 1/(1 + e- net) (sigmoidal logística) f(x) = (1 - e-net) (tangente hiperbólica) (1 +e-net) André Ponce de Leon de Carvalho
30
André Ponce de Leon de Carvalho
28/04/2017 Treinamento Iniciar todas as conexões com valores aleatórios Repita erro = 0; Para cada par de treinamento (X, y) Para cada camada k := 1 a N Para cada neurônio j := 1 a Mk Calcular a saída fkj(net) Se k= N Calcular soma dos erros de seus neurônios; Se erro > Para cada camada k := N a 1 Para cada neurônio j:= 1 a Mk Atualizar pesos; Até erro < (ou número máximo de ciclos) André Ponce de Leon de Carvalho
31
Treinamento modificando fronteiras
André Ponce de Leon de Carvalho
32
Treinamento modificando fronteiras
André Ponce de Leon de Carvalho
33
Treinamento modificando fronteiras
André Ponce de Leon de Carvalho
34
Treinamento modificando fronteiras
André Ponce de Leon de Carvalho
35
Treinamento modificando fronteiras
André Ponce de Leon de Carvalho
36
André Ponce de Leon de Carvalho
Exercício Dada a rede abaixo, que recebe como entrada um vetor binário de n bits e gera como saída um valor binário: a) Indicar a função implementada pela rede abaixo: b) Explicar papel de cada neurônio no processamento da função Bias (-viés) +1 -0.5 -1 Considerar função de ativação limiar (threshold) entrada/saída binária n André Ponce de Leon de Carvalho
37
André Ponce de Leon de Carvalho
Exercício Paridade Uma das limitações do Perceptron levantadas por Minsky e Papert Problema difícil Padrões mais semelhantes requerem respostas diferentes Usa n unidades intermediárias para detectar paridade em vetores com n bits André Ponce de Leon de Carvalho
38
MLPs como classificadores
Classe A Classe B Classe A Classe B Classe A Classe B André Ponce de Leon de Carvalho
39
Combinações de regiões convexas
Encontrar fronteiras de decisão que separem os dados abaixo: André Ponce de Leon de Carvalho
40
Combinações de regiões convexas
Encontrar fronteiras de decisão que separem os dados abaixo: André Ponce de Leon de Carvalho
41
André Ponce de Leon de Carvalho
Exercício Quantas camadas e pelo menos quantos nodos em cada camada possui a rede que divide o espaço de entradas das formas abaixo: classe 1 classe 1 classe 2 classe 2 André Ponce de Leon de Carvalho
42
Variações do backpropagation
Momentum Quickprop Newton Levenberg Marquardt Super Self-Adjusting Backpropagation (superSAB) Métodos de gradiente conjugado André Ponce de Leon de Carvalho
43
Backpropagation Momentum
Treinamento Supervisionado wij(t)= wij(t-1) + Dwij + momentum Momentum = (wij(t-1) - wij(t-2)) Aceleração André Ponce de Leon de Carvalho
44
André Ponce de Leon de Carvalho
Deep Networks Redes neurais em geral têm 1 ou 2 camadas intermediárias Mais camadas levam a soluções pobres Complexidade em teoria de circuitos Sugere que arquiteturas produndas podem ser muito mais eficientes Quando tarefa é complexa e existem dados suficientes para capturar essa complexidade Necessidade de algoritmos apropriados André Ponce de Leon de Carvalho
45
Deep Networks Abordagens para treinamento
Adicionar camadas construtivamente Cada camada transforma entrada da camada anterior Torna tarefa de aprendizado cada vez mais fácil Utilizar aprendizado não suprevisionado para cada camada Treinar a rede toda de uma vez
46
André Ponce de Leon de Carvalho
Outras redes Adaline RBF SOM GNG ART TDNN SVM ? André Ponce de Leon de Carvalho
47
Máquinas de Vetores de Suporte (SVMs)
28/04/2017 Máquinas de Vetores de Suporte (SVMs) Baseadas na Teoria do Aprendizado Estatístico Vapnik e Chervonenkis em 1968 Estratégia básica Encontrar um hiperplano que maximize margem de separação (margem larga) Distância a um conjunto de “vetores de suporte” Reduz erro de generalização Minimização do risco estrutural 28/04/2017 André de Carvalho - ICMC/USP
48
Máquinas de Vetores de Suporte (SVMs)
28/04/2017 Máquinas de Vetores de Suporte (SVMs) Rede Neural SVMs 28/04/2017 André de Carvalho - ICMC/USP
49
Máquinas de Vetores de Suporte (SVMs)
28/04/2017 Máquinas de Vetores de Suporte (SVMs) Vetores de suporte “os pontos críticos” w Hiperplano separador ótimo Margem máxima 28/04/2017 André de Carvalho - ICMC/USP
50
André Ponce de Leon de Carvalho
Variáveis de folga Slack variables André Ponce de Leon de Carvalho
51
Máquinas de Vetores de Suporte (SVMs)
28/04/2017 Máquinas de Vetores de Suporte (SVMs) Problemas lineares Generalização para problemas não lineares Mapeamento de dados de entrada para um espaço de maior dimensão utilizando funções kernel Kernel 28/04/2017 André de Carvalho - ICMC/USP
52
André Ponce de Leon de Carvalho
28/04/2017 Conclusão Técnicas geométricas baseadas em otimização Redes Neurais Sistema nervoso Muito utilizadas em problemas reais Várias arquiteturas e algoritmos Perceptron e MLP Magia negra Caixa preta SVMs André Ponce de Leon de Carvalho
53
André Ponce de Leon de Carvalho
28/04/2017 Perguntas André Ponce de Leon de Carvalho
Apresentações semelhantes
© 2024 SlidePlayer.com.br Inc.
All rights reserved.