A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Redes Neurais Artificiais Christiano Lima Santos Redes Neurais Artificiais.

Apresentações semelhantes


Apresentação em tema: "Redes Neurais Artificiais Christiano Lima Santos Redes Neurais Artificiais."— Transcrição da apresentação:

1 Redes Neurais Artificiais Christiano Lima Santos Redes Neurais Artificiais

2 Classificação de Padrões Aula 2 Classificação de Padrões

3 Sumário Arquitetura Separabilidade Linear O que são Redes Hebb? –Características –Algoritmo –Função AND –Função NOT –Função OR Um caso específico Vantagens e desvantagens das redes Hebb

4 Arquitetura Single-layer; Uso de bias para ajustar, mantendo o threshold fixo; Problemas separáveis linearmente;

5 Separabilidade Linear Capacidade de uma rede separar dois padrões a partir de pesos e bias bem ajustados para tal;

6 Separabilidade Linear

7 O que são Redes Hebb? Redes neurais single-layer; Utilizam-se das regras de aprendizado Hebb; Ajuste de todos os pesos a cada vetor de entrada –Independente do mesmo contribuir ou não para o resultado;

8 Características Vetores de entrada na forma bipolar ou binária; Resultado na forma bipolar; Treinamento supervisionado;

9 Algoritmo Inicializa os pesos Para cada vetor de entrada, incremente cada w i com w i = x i *t para i = 0 até n w i = 0; para cada vetor de entrada para i = 0 até n w i += x i *t;

10 Função AND O treinamento foi efetuado com sucesso; Resultados alcançados em uma única época; EntradaSaída

11 Função NOT O treinamento foi efetuado com sucesso; Resultados alcançados em uma única época; EntradaSaída

12 Função OR O treinamento foi efetuado com sucesso; Resultados alcançados em uma única época; EntradaSaída

13 Um Caso Específico... Treinamento fracassou; Uma possível combinação de pesos seria: 1, 1, 1, -2 EntradaSaída

14 Vantagens e Desvantagens das Redes Hebb Vantagem: –Fácil aprendizado e implementação; Desvantagem: –Nem todos os problemas linearmente separáveis podem ser resolvidos por aprendizado Hebb;

15 Perceptron Aula 3 Perceptron

16 Sumário Arquitetura Características Representação Gráfica Função de Ativação Algoritmo Função AND Reconhecimento de Caracteres

17 Arquitetura Single-layer; Threshold X bias; Problemas linearmente separáveis;

18 Características Duas retas dividem o plano cartesiano; Taxa de aprendizado α; Treinamento em épocas;

19 Representação gráfica

20 Função de Ativação

21 Algoritmo Inicializa os pesos Para cada vetor de entrada, compute y_in e y, se diferente de t, incremente cada w i com w i = α *t*x i Caso varie algum w i, retorne para o passo anterior (Código-fonte de aplicação em breve, no site)

22 Função AND (Em breve, disponível em artigo no site)

23 Reconhecimento de Caracteres (Em breve, disponível em artigo no site)

24 Adaline Aula 4 Adaline

25 Sumário Arquitetura Características Representação Gráfica Função de Ativação Algoritmo Reconhecimento de Caracteres

26 Arquitetura Uma única camada; Dispensa especificação de Threshold; Problemas linearmente separáveis;

27 Características Taxa de aprendizado α; Treinamento em épocas; Utiliza-se da regra de aprendizado delta;

28 Representação gráfica

29 Função de Ativação

30 Algoritmo (Em breve, disponível no site)

31 Reconhecimento de Caracteres (Em breve, disponível no site)

32 Madaline Aula 5

33 Sumário Arquitetura Características Representação Gráfica Algoritmo Função XOR

34 Arquitetura Várias Adalines organizadas em múltiplas camadas; Não somente problemas linearmente separáveis;

35 Características Treinamento um pouco mais complexo; –Não envolve somente uma camada com neurônios! Algoritmos MRI (algoritmo original) e MRII; Agora, o espaço é dividido por duas retas; Muito cuidado com uso de pesos inicializados com zero!

36 Representação gráfica

37 Algoritmo (Explicação e aplicação em breve, no site)

38 Função XOR (Aplicação em breve, no site)

39 JavaNNS Aula 6 JavaNNS

40 Sumário O Que é? Instalação Tela do JavaNNS Menus Algumas Janelas Rede AND

41 O Que é? Universidade de Tübingen –Departamento de Ciência da Computação Simulador para redes neurais; JavaNNS = SNNS in Java + GUI; Livre distribuição com algumas restrições;

42 Instalação JRE instalado; Descompactação; Execução por meio da JVM –java –jar javanns.jar Diretórios: –Examples; –Manuals;

43 Tela do JavaNNS

44 Menus File –New –Open –Close –Save / Save As / Save Data –Print –Exit Edit –Undo / Redo –Names / Output values –Unit properties –Delete Units Links

45 Menus View –Network –Display Settings –Error graph –Weights –Projection –Kohonen –Log –Status Panel –Properties Tools –Control Panel –Cascade & TACOMA –Analyser –Create Layers Connections

46 Menus Pattern –Add –Modify –Copy –New Set Window –Cascade –Close all Help –Contents –About

47 Algumas Janelas View Network Error Graph

48 Algumas Janelas Log Window Control Panel

49 Rede AND [ Execute o JavaNNS com os parâmetros para a rede AND ]

50 Associação de Padrões Aulas 7 e 8 Associação de Padrões

51 Parte 1 Aula 7

52 Sumário O que são Redes Associativas Regras de Treinamento Regra Hebb Regra Delta Redes Heteroassociativas Redes Autoassociativas

53 O que são Redes Associativas Associam determinados padrões a outros; Reconhecem um padrão mesmo com entradas perdidas ou erradas; sn:tm Wn x m; Testando a rede: f(s.W) = t

54 O que são Redes Associativas Quanto maior for a correlação (não- ortogonalidade) entre os vetores de entrada do treinamento, menos eficaz poderá ser a matriz de pesos no reconhecimento; Perfect Recall versus Cross Talk

55 Regras de Treinamento Regra Hebb –Mais simples; Regra Delta –Reproduz melhores resultados;

56 Regra Hebb A matriz peso é resultado do produto externo do padrão associado W = s T.t

57 Regra Delta Reproduz melhores resultados que a regra Hebb –Mesmo quando lidando com vetores não ortogonais; Regra Delta original: Variação da Regra Delta:

58 Redes Heteroassociativas Redes em que os pesos são determinados de forma a armazenar P padrões;

59 Redes Heteroassociativas Funções de ativação –Step bipolar

60 Redes Heteroassociativas Funções de ativação –Step binária

61 Redes Heteroassociativas Funções de ativação –Incluindo um threshold θ i Usada em Memória Associativa Bidirecional (BAM)

62 Redes Heteroassociativas Para um conjunto de associações-padrão (usando a regra Hebb) W = W(1) W(i) W(P)

63 Redes Autoassociativas Vetor de treinamento = saída desejada; Armazenamento do vetor; Zerar a diagonal principal da matriz peso; (regra Hebb)

64 Redes Autoassociativas Capacidade de Armazenamento –Até n-1 vetores ortogonais entre si de n componentes em uma matriz peso usando a soma dos produtos externos;

65 Parte 2 Aula 8

66 Sumário Redes Autoassociativas Iterativas Autoassociador Linear Recorrente Brain-State-in-a-Box (BSB) Rede Discreta de Hopfield Memória Associativa Bidirecional (BAM) Outros Conceitos

67 Redes Autoassociativas Iterativas Incapacidade de associar um vetor com muitas incertezas na primeira tentativa; –Entretanto conseguem determinar de forma iterativa!

68 Redes Autoassociativas Iterativas Alguns tipos: –Autoassociador linear recorrente; –Redes Brain-State-in-a-Box; –Redes de Hopfield; Todos os n neurônios interconectados!

69 Autoassociador Linear Recorrente Todos os neurônios interconectados; Pesos podem ser determinados pela regra Hebb; Possibilidade de problemas com o crescimento da matriz-peso; –Solução: redes BSB;

70 Brain-State-in-a-Box (BSB) Limita o crescimento por meio da modificação da função de ativação; Pesos simétricos Nenhuma autoconexão

71 Rede Discreta de Hopfield Totalmente interconectadas, pesos simétricos e nenhuma autoconexão; Atualização assíncrona: –Somente uma unidade por vez;

72 Rede Discreta de Hopfield Sinal externo + Sinal de cada um dos outros neurônios; Função de Energia ou Lyapunov;

73 Rede Discreta de Hopfield Inicialização de pesos pode ser por regra Hebb; Busca-se a convergência dos valores de ativação; Quando usar a entrada externa?

74 Rede Discreta de Hopfield Função Energia Capacidade de Armazenamento Padrões Binários Padrões Bipolares

75 Memória Associativa Bidirecional (BAM) Soma de matrizes de correlação bipolares; Camadas de neurônios X e Y;

76 Memória Associativa Bidirecional (BAM) BAM discreta –Binárias ou bipolares; –Cálculo do peso por meio do produto externo das formas bipolares; –Função de ativação step;

77 Memória Associativa Bidirecional (BAM) BAM contínua –Saída no intervalo [0, 1]; –Cálculo de y_in j utiliza bias; –Função de ativação sigmóide logística;

78 Outros Conceitos Distância Hamming Apagar uma associação armazenada –x c :t c não apaga x:t –x c :t ou x:t c apaga x:t

79 Backpropagation Aula 9 Backpropagation

80 Standard Backpropagation

81 Sumário Introdução Estágios do Treinamento Arquitetura Função de Ativação Fatores e Variações dos Pesos Algumas Decisões Importantes Aplicações

82 Introdução Regra Delta Generalizada; –Redução do erro quadrado total da saída; –Derivada da função de ativação; Propagação dos valores de correção –Sentido contrário ao fluxo de informações; Multi-camada feedforward; –Uma ou mais camadas ocultas;

83 Estágios do Treinamento Feedforward do padrão de treinamento de entrada; Cálculo e backpropagation do erro; Ajuste dos pesos;

84 Arquitetura

85 Função de Ativação Sigmóide BináriaSigmóide Bipolar

86 Fatores e Variações dos Pesos Da camada de saídaDa camada oculta

87 Algumas Decisões Importantes Escolha dos pesos iniciais –Valores aleatórios entre –0.5 e 0.5; Quanto tempo deve durar o treinamento –Memorização X Generalização; Quantos devem ser os pares de treinamento;

88 Algumas Decisões Importantes Representação dos dados –Binária X Bipolar; Número de camadas ocultas –Uma camada é suficiente para muitos problemas;

89 Aplicações Compressão de Dados; –Quando usado em redes autoassociativas, por exemplo;

90 Variações

91 Sumário Variações Quanto à Atualização dos Pesos Variações Quanto à Função de Ativação Backpropagation Estritamente Local Número de camadas ocultas

92 Quanto à Atualização dos Pesos Momento Atualização em Batch dos Pesos Taxas de Aprendizado Adaptativas

93 Momento O ritmo de cada mudança deve ser considerado; Onde 0 < μ < 1

94 Atualização em Batch dos Pesos Acumular as correções e efetuar todas ao mesmo tempo após vários padrões, ou mesmo ao fim de cada época;

95 Taxas de Aprendizado Adaptativas Taxa de aprendizado varia durante o treinamento;

96 Taxas de Aprendizado Adaptativas Delta-Barra-Delta –Enquanto o sinal da mudança de peso permanecer o mesmo, aumente a taxa de aprendizado referente a esse peso; –Quando o sinal da mudança de peso mudar, reduza a taxa de aprendizado referente a esse peso;

97 Taxas de Aprendizado Adaptativas Delta-Barra-Delta 0 < β < 1

98 Taxas de Aprendizado Adaptativas Delta-Barra-Delta

99 Taxas de Aprendizado Adaptativas MétodoSucessosÉpocas Backpropagation Backpropagation com momento Delta-Barra-Delta

100 Quanto à Função de Ativação Função Sigmóide Customizada para Padrões de Treinamento Parâmetro Slope Adaptativo para Sigmóide Outra Função Sigmóide Função de Ativação Não-Saturante Função de Ativação Não-Sigmóide

101 Função Sigmóide Customizada para Padrões de Treinamento

102 Parâmetro Slope Adaptativo para Sigmóide

103 Outra Função Sigmóide

104 Função de Ativação Não- Saturante

105 Função de Ativação Não- Sigmóide

106 Backpropagation Estritamente Local Problemas de plausibilidade biológica; –Backpropagation requer compartilhamento de informações entre unidades; Dividir em unidades corticais, sinápticas e talâmicas;

107 Número de Camadas Ocultas Uma camada é suficiente para qualquer problema de aproximação de função; Alguns problemas podem ser mais fáceis de resolver com duas camadas ocultas; Basta estender os passos a serem executados;

108 Número de Camadas Ocultas

109 Resultados Teóricos

110 Sumário Derivação das Regras de Aprendizado

111 Derivação das Regras de Aprendizado No Standard Backpropagation

112 Derivação das Regras de Aprendizado No Standard Backpropagation

113 Derivação das Regras de Aprendizado No Standard Backpropagation

114 Kohonen Aula 10 Kohonen

115 Sumário Introdução Características Arquitetura Vizinhança Algoritmo Observações Aplicação

116 Introdução Classificação até agora –Rede podia retornar mais de um sinal de saída; É necessário forçar a rede a tomar uma decisão –Competição; O vencedor leva tudo;

117 Introdução MAXNET; Chapéu Mexicano; Quantização do Vetor de Aprendizagem (LQV); Mapeamento auto-organizável de Kohonen.

118 Características Preserva topologias; Treinamento não-supervisionado –Busca similaridades nos vetores e agrupa-os;

119 Características Aprendizado Kohonen –Combinação linear do antigo vetor-peso e do vetor de entrada atual; –Somente para o vetor peso mais próximo e sua vizinhança!

120 Características Calculando o vetor-peso mais próximo... –Distância euclidiana; –Produto escalar comparação do y_in de cada unidade;

121 Arquitetura

122 Vizinhança

123 Algoritmo Inicialize pesos Estabeleça parâmetros de vizinhança topológica Estabeleça parâmetros de taxa de aprendizado

124 Algoritmo Enquanto condição de parada for falsa, faça Para cada vetor de entrada x, faça Para cada j Dj = 0 Para cada i Dj = Dj + (wij – xi)2

125 Algoritmo Encontre índice J tal que DJ seja mínimo Para todas as unidades j na vizinhança especificada de J Para todos os i wij = wij + α[xi - wij] Atualize taxa de aprendizado Reduza raio da vizinhança topológica em tempos determinados

126 Observações A taxa de aprendizado decresce lentamente em função do tempo; O raio de vizinhança também decresce enquanto o processo de clustering progride; Valores aleatórios podem ser estabelecidos para os pesos inicialmente.

127 Aplicação [ Aplicação em breve disponível no site ]

128 Redes Neurais Artificiais em Jogos Aula 11 Redes Neurais Artificiais em Jogos

129 Sumário Técnicas de IA em Jogos Por que IA em Jogos? Por que RNA em Jogos? Casos de RNA em Jogos –Smart Sweepers 1 –Smart Sweepers 2 –Neat Sweepers –Brainy Aliens –Neat Invaders –GNU Mages –Docking Station – Creatures Considerações Finais Referências Bibliográficas

130 Técnicas de IA em Jogos Máquinas de Estados Finitos e Scripts –Jogos de Estratégia, de RPG, FPS, Luta, etc. (TATAI, s.d.) Mortal Kombat Total Annihilation Unreal

131 Técnicas de IA em Jogos Estratégias de Busca Tradicionais –Algoritmos minimax e pathfinding; –Busca em profundidade / largura, backtracking; –Jogos de Tabuleiro, Estratégia, RPG, Ação, etc; (TATAI, s.d.) Jogo de XadrezPacman

132 Técnicas de IA em Jogos Algoritmos Genéticos –Jogos de Estratégia ou de Simulação; –Permite o aprendizado por meio da evolução! (TATAI, s.d.) q ? Muitos jogos podem se utilizar de algoritmos genéticos com sucesso

133 Técnicas de IA em Jogos Redes Neurais Artificiais (TATAI, s.d.) Docking Station (série Creatures)

134 Técnicas de IA em Jogos Sistemas Nebulosos –??? (TATAI, s.d.) q ?

135 Técnicas de IA em Jogos E NeuroEvolution? –Redes Neurais + Algoritmos Genéticos; (TATAI, s.d.)

136 Por que IA em Jogos? O jogador quer um inimigo: –Reativo; –Proativo; –Com comportamento humano; –Que se aperfeiçoe durante o jogo;

137 Por que RNA em Jogos? Usada principalmente em simulações (VIEIRA, 2005) –Docking Station, da GameWare Development;

138 Casos de RNA em Jogos Smart Sweepers 1; Smart Sweepers 2; Neat Sweepers; Brainy Aliens; Neat Invaders; GNU Mages; Docking Stations – Creatures;

139 Smart Sweepers 1

140 Smart Sweepers 2

141 Neat Sweepers

142 Brainy Aliens

143 Neat Invaders Ferramentas –Delphi –DelphiNEAT Library –GR32 Library –PNGDelphi Como pontuar cada inimigo? Para cada inimigo –Entrada Coordenadas do jogador Se pode disparar ou não Vetor velocidade Vetor distância do míssil mais próximo –Saída Vetor aceleração Se dispara ou não

144 Neat Invaders NeuroEvolution Augmenting Topologies

145 GNU Mages Capture the Flag; Em Java; Editor de mapas;

146 GNU Mages

147 Docking Station - Creatures GameWare Development; Simulador de vida de criaturas; –Evolução das mesmas; –Sociabilização com outras criaturas;

148 Docking Station - Creatures

149 Considerações Finais Ainda nos primeiros passos... Que outros gêneros de jogos poderão usar NeuroEvolution? Que benefícios o uso de Redes Neurais e Algoritmos Genéticos podem trazer aos jogos?

150 Referências Bibliográficas BUCKLAND, Matt, AI Techniques for Game Programming, Premier Press, 2002 FAUSETT, Laurene, Fundamentals of Neural Networks – Architectures, Algorithms and Applications TATAI, Victor K, Técnicas de Sistemas Inteligentes Aplicadas ao Desenvolvimento de Jogos de Computador, Universidade Estadual de Campinas, s.d. VIEIRA, Vicente, Revolution AI Engine – Desenvolvimento de um Motor de Inteligência Artificial para a Criação de Jogos Eletrônicos, UFPE,

151 FIM!!!


Carregar ppt "Redes Neurais Artificiais Christiano Lima Santos Redes Neurais Artificiais."

Apresentações semelhantes


Anúncios Google