Processadores Neurais

Slides:



Advertisements
Apresentações semelhantes
REDES NEURAIS ARTIFICIAIS: uma aplicação do tipo perceptron multilayer na identificação de impressões digitais Acadêmico: José Mário Pereira Dantas Orientador:
Advertisements

Agenda Introdução Justificativa Objetivo Detecção de Spam
REDES NEURAIS ARTIFICIAIS
Redes Neurais Artificiais (RNA): Introdução
Redes Neurais Artificiais (RNA): Perceptron
Redes Neurais Artificiais (RNA): Aprendizado
Aspectos de Implementação do Algoritmo Backpropagation
RECONHECIMENTO DE CARACTERES MANUSCRITOS APLICANDO REDES NEURAIS
AULA 1: Introdução a Sistemas Embarcados
AULA 03 PERCEPTRON SIMPLES.
AULA04 PERCEPTRON MULTI-CAMADAS MULTI-LAYER PERCEPTRON (MLP)
Neurônio .3.
Redes Neurais Artificiais
Redes Neurais Artificiais
Redes Neurais Artificial
Curso Introdução às Redes Neuronais Parte 2 Prof. Dr. rer.nat. Aldo von Wangenheim.
Aspectos da Implementação de Redes Neurais
6. Estruturas p/ Sistemas Discretos
Introdução à Inteligência Artificial Redes Neurais Artificiais Prof
Reconhecimento de Padrões Multi-Layer Perceptron (MLP)
Redes Neurais (Conceitos Fundamentais)
Redes de Funções de Base Radial Radial Basis Functions (RBFs)
Inteligência Artificial
Inteligência Artificial
FACENS – Engenharia da Computação Inteligência Artificial
Redes Neurais prof. Luis Otavio Alvares
Análise Multivariada Aplicada as Ciências Agrárias
Inteligência Artificial
Instituto Tecnológico da Aeronáutica – ITA Divisão de Ciência de Engenharia Eletrônica e Computação EE-09 Inteligência Artificial Prof. Adilson Marques.
INF 1771 – Inteligência Artificial
INF 1771 – Inteligência Artificial
Davyd Bandeira de Melo Um Sistema de Reconhecimento de Comandos de Voz Utilizando a Rede Neural ELM Junho 2011.
Inteligência Artificial Redes Neurias
Previsão de consumos a curto prazo
Daniela Justiniano de Sousa
Introdução O que é computação?.
Uma Introdução às Redes Neurais
Redes Neurais Prof. Alex F. V. Machado.
REDES NEURAIS ARTIFICIAIS: Do Aprendizado Natural
Redes neurais artificiais
Redes Neurais Artificiais
SBRN’02 - Simpósio Brasileiro de Redes Neurais
Redes Neuronais/Neurais/ Conexionistas Introdução
Redes Neurais Artificiais
Adaline ta distância entre saída e resposta desejada
Extração de Regras de RNA Wilian Soares Lacerda Fevereiro de 2003.
RNA – Radial Basis Function
(OU) Hardware da Rede Implementacao da rede
Redes Neurais Artificiais. Introdução RNA são modelos matemáticos que se assemelham às estruturas neurais biológicas Capacidade computacional adquirida.
INTRODUÇÃO À COMPUTAÇÃO
José Reinaldo Lemes Júnior Orientador: Prof. Wilian Soares Lacerda.
Prof. Anne Magály de Paula Canuto
Implementação de uma arquitetura de Redes Neurais MLP utilizando FPGA
Redes Neurais Artificiais
Introdução às Redes Neurais
Redes Neurais Artificial
Aprendizado da rede O aprendizado, na maioria das vezes, constitui no ajuste do conjunto de pesos de modo que a rede consiga executar uma tarefa específica.
Luana Bezerra Batista Redes Neurais Luana Bezerra Batista
Redes Neurais Artificiais
O Que São as Redes Neurais Artificiais
Redes Neurais Artificiais: História. Introdução Redes neurais artificiais são técnicas computacionais que apresentam um modelo matemático inspirado na.
Inteligência Artificial
Redes Neurais Artificiais Prof. Júlio Cesar Nievola PPGIA – PUCPR Especialização em Inteligência Computacional.
REDES NEURAIS E SUAS APLICAÇÕES ALUNO: Paulo Celso da Silva e Souza Junior.
Inteligência artificial (IA)
Detecção de tráfego Skype na Web através de Redes Neurais Artigo Original: Freire, P. E., Ziviani, A., and Salles, R. M. (2008). Detecting skype flows.
Redes Neurais Artificiais (Parte 2)
Objetivo Este projeto destina-se ao estudo e à elaboração de modelos neurais artificiais, com o auxílio do programa Matlab. O objetivo principal deste.
Transcrição da apresentação:

Processadores Neurais “Chips neurais” Prof. Stela Ednaldo José Ferreira

Conteúdo Histórico Introdução Modelamento Aprendizado em RNA Processador Neural Conclusão

Trabalhos & Autores Histórico 1943 - McCulloch & Pitts Concentra-se em descrever um modelo artificial de um neurônio e apresentar suas capacidades computacionais 1949 - Donald Hebb Propoe uma teoria para explicar o aprendizado em neurônios biológicos baseado no reforço das ligações sinápticas Widrow e Hoff (60) Apresenta um regra para treinamento de um nodo (neurônio) que ficou conhecida com REGRA DELTA 1958 - Frank Rosemblatt Modelo Perceptron - MLP (camadas: entrada, intermediaria e saída)

Trabalhos & Autores Histórico 1969 - Minsky e Papert Demonstra as atividade que um perceptron não poderia executar Anos 70 Abordagem conexionista adormecida 1982 - John Hopfield Propriedades das redes associativas 1986 - Regra delta generalizada - Backpropagation

Neurônio Biológico Introdução Dendritos: Ramificações que conduzem o sinal para o corpo celular Soma: Promove a integração dos impulsos Axônio: Conecta a célula nervosa a outras do sistema nervoso

Introdução A Comunicação Química Elétrica Elétrico - Potencial de Ação

A Comunicação Introdução O potencial de ação é provocado no axônio de um neurônio pelo efeito combinado de todos os estímulos excitatórios e inibitórios que chegam a sua árvore dentrital.

Primeiros Modelos Modelamento Modelo de primeira ordem A simplificação de McCulloch & Pitts

Primeiros Modelos A B Modelamento McCulloch & Pitts Discriminador Linear X2 X1 B A

Classificação do Aprendizado Aprendizado Supervisionado Imagem e domínio conhecidos durante a fase de treinamento. Aprendizado Não Supervisionado Imagem é encontrada (“agrupada”) automaticamente pela rede a partir do domínio Aprendizado por Reforço Apenas um indicativo do erro é fornecido

Perceptron Principais Redes Para x1 = 1, x2 = 0 e x3 = 1 ==> d = 0 Função de Saída X1 X2 X3 W1 W2 W3 y Função de Ativação Para x1 = 1, x2 = 0 e x3 = 1 ==> d = 0 Para x1 = 1, x2 = 1 e x3 = 0 ==> d = 1 . Para x1 = 0, x2 = 0 e x3 = 0 ==> d = 1 Exemplo de Aprendizado supervisionado para um simples perceptron

Wi (t+1) = Wi(t) + n.e.Xi (t) Principais Redes Perceptron A equação geral para atualização dos Pesos Wi (t+1) = Wi(t) + n.e.Xi (t) onde: n Taxa de aprendizado Wi Peso entre o neurônio e a entrada Xi e erro entre a saída Yk e a o valor desejado dk e = (dk - Yk)

Perceptron n.X W(t) W(t+1) X Principais Redes O processo de aprendizado n.X W(t) W(t+1) X

Adaline (Widrow & Hoff) Principais Redes Adaline (Widrow & Hoff) Adaline - Adaptative linear element - Adaptative linear neuron

Adaline - Aprendizado Principais Redes Método do Gradiente Descendente Derivar a função de erro - em relação as pesos da rede

n = Adaline - Aprendizado Wi (t+1) = Wi(t) + n.e.Xi (t) Principais Redes Adaline - Aprendizado Método do Gradiente Descendente Somar o vetor gradiente descendente ao vetor peso n = Wi (t+1) = Wi(t) + n.e.Xi (t)

Redes Multicamadas - MLP Principais Redes Redes Multicamadas - MLP Fase Forward Fase Backward

Redes Multicamadas - MLP Principais Redes Redes Multicamadas - MLP Aprendizado - Back propagation Baseado na regra delta => regra delta generalizada Wji (t+1) = Wji(t) + n. .Xi (t) Camada Intermediária Camada de Saída

Por que usar processadores neurais ? Velocidade As redes neurais já possuem um paralelismo intrínseco característico. Portanto, múltiplos elementos de processamento (EP’s) em um chip neural pode garantir alta velocidade de processamento

Quando usar chips neurais ? Quando a implementação em software não é suficiente. Quando a implementação em hardware seqüencial não é suficiente.

Aplicações de processadores neurais OCR (Reconhecimento ótico de caracteres) Reconhecimento de Voz HEP (High Energy Physics) Aplicações comerciais de OCR on chip Aplicações em Telefones Celulares, Brinquedos, etc

Especificação de Hardware Neural Três categorias básicas: Digital Analógica Híbrida Características Genéricas: Aprendizado: on-chip ou off-chip Arquitetura da rede Número de neurônios (Elemento de Processamento) Função de Transferencia: on-chip ou off-chip ou LUT Bits de precisão (pesos) Tamanho do Acumulador em Bits Preço

Parâmetros de comparação de Performance CPS (Connection Per Second) Número de operações de multiplicação e armazenamento por segundo na fase de forward CUPS (Connection Updates Per Sec) Medida da velocidade de aprendizado da rede - fase backward Não há ainda um conjunto de parâmetros que garanta um bom Benchmark

Digital Projeto digital: Arquiteturas em camadas SIMD RBF (Função Base Radial) Vantagens da tecnologia digital Técnicas de fabricação bastante precisa O pesos são armazenados em RAM Operações aritméticas exatas para número de bits dos acumuladores e operandos Fácil integração para maioria das aplicações

Digital Desvantagens da tecnologia digital Operações digitais mais “lentas” que os sistemas analógicos - (Wji * Xi ) O mundo real é analógico - um sensor necessita de conversão D.A. para se adaptar a tecnologia

Digital - Projeto digital Arquiteturas em camada Micro Devices MD1220 SIMD Adaptive Solutions N64000 RBF (Função Base Radial) Nestor Ni1000

Analógica Vantagens Explora as propriedades físicas para as operações da rede .: Alta velocidade Desvantagens Projeto pode ser difícil (considerações de temperatura, manufatura, etc) Armazenamento dos pesos Pesos x Entrada deve ser linear em toda escala Chip: Intel Electrically Trainable Neural Network (ETANN)

Híbrida Combina o melhor das duas tecnologias Processamento interno é analógico, garantindo velocidade. Porém os pesos são armazenados na forma digital Redes de Pulso: Usa largura de pulso para emular amplitude dos pesos, das entradas e das saídas da rede Chip: Neuroclassificador do Instituto Mesa - Univ. Twente (20 ns - forward)

Adaptive Solutions CNAPServer VME System Cartões Aceleradores e Neurocomputadores Neurocomputadores: sistemas dedicados com hardware e software elaborados para aplicações neurais Objetivo: Aplicações em alta escala: OCR Adaptive Solutions CNAPServer VME System Cartões Aceleradores: Uma alternativa, mais barata que os Neurocomputadores. Permite acoplar um sistema neural a um PC (por exemplo) através de um cartão IBM ZISC ISA

Cartões Aceleradores - TOTEM

TOTEM NeuroChips NC3002 NC3003 Algoritmo de aprendizado Reactive Tabu Search (RTS)

TOTEM - Aspectos Avançados Multiplicação sem módulos multiplicadores

Conclusões O custo dos chips neurais é ainda relativamente alto e por isso ainda não emplacaram comercialmente como os chips Fuzzy. A comercialização dos chips neurais ainda depende de um outro fator que está ligado ao número de adeptos a tecnologia neural. Por se tratar de uma ciência relativamente recente temos poucos profissionais realmente conhecedores dessa técnica, mas acredito que com o tempo teremos mais profissionais usando chips neurais e aplicando-o na industria. Isso deve reduzir o custo e incentivar a produção e o comércio.

Bibliografia 1. R. De Mori, R. Cardim, "A new design approach to binary logarithm computation", Signal processing, 13 (2), Sept. 1987, pp. 177-195. 2. B. Hoefflinger "Efficient VLSI digital logarithmic codecs", Electronics Letters, 27(13), June 1991, pp. 1132-1134. 3. E. E. Swartzlander, A .G. Alexopoulos, "The sign logarithm number system", IEEE Trans. on Computers, C-24(12),Dec. 1975, pp. 1238-1242. 4. P. Lee, L. A .Zorat, A . Sartori, G. Tecchiolli "Advances in The Design of The Totem Neurochip", World Scientific Publishing Company, 5. Z. L. Kovács, "Redes Neurais Artificiais Fundamentos e Aplicações", Edição Acadêmica São Paulo, 1996. 6. R. Battiti, G. Tecchiolli, "Training neural nets with the Reactive Tabu Search". IEEE Transactions on Neural Networks, 6(5) 1995, pp. 1185-1200. Sites 1. www.neuricam.com 2. uhavax.hatford.edu 3. neuralnets.web.cern.ch 4. msia02.msi.se 5. lionhrtpub.com

FIM Ednaldo José Ferreira