Prof. Dr. Helder Anibal Hermini

Slides:



Advertisements
Apresentações semelhantes
Algoritmos em Grafos Celso C. Ribeiro Caroline T. Rocha.
Advertisements

Introdução a Resolução Numérica de Equações Diferenciais Ordinárias
INTRODUÇÃO À COMPUTAÇÃO PARALELA
CCS – Centro de Componentes Semicondutores Luiz Carlos Moreira/Jacobus W. Swart ASIC´s – Application Specific Integrated Circuits.
Modelagem por elementos finitos da evolução
Introdução à Lógica de Programação
Custos XP x Custos Tradicionais André Chinvelski.
Sistemas Operacionais
Prof. Dr. Helder Anibal Hermini
Prof. Dr. Helder Anibal Hermini. SUMÁRIO Algumas Aplicações O Treinamento da RNA Redes Neurais em Identificação e Controle de Processos Redes Neurais.
APLICAÇÕES DA INFORMÁTICA NA PESQUISA
Prof. Dr. Helder Anibal Hermini
1. Equivalência entre portas 2. Derivação de expressões booleanas 3
Criptografia Quântica : Um Estudo
Slide 1 Rede Nacional de Ensino e Pesquisa Treinamento em Gradep - junho 2005 Aplicação GeneAl Treinamento no GRADEp Aplicação GeneAl.
Repensando a Avaliação da Aprendizagem
Unidade VIII – Capítulo 3, livro texto Págs.:
Mais sobre classes Baseada no Livro: Deitel&Deitel - C++ How To program Cap. 7 Prentice Hall 1994 SCE 213 Programação Orientada a Objetos, ICMC - USP 2.
Técnicas de Processamento Imagens
Profa. Graziela Santos de Araújo Algoritmos e Programação II, 2010
Arquitetura de Computadores I
TECIDO NERVOSO O sistema nervoso é constituído por todos os tecidos nervosos do organismo. SNC Medula espinhal Encéfalo SNP Nervos, gânglios e terminações.
O Fluxo de Testes © Alexandre Vasconcelos
Sistema Nervoso e Integração Nervosa: Organização em Vertebrados
Planejando seu site Objetivos Abordagem Sílvia Dota.
UNIVERSIDADE DE PASSO FUNDO
Curso de Engenharia Industrial Madeireira – UFPR Prof. Umberto Klock
UD de Sorocaba/ Iperó UNIVERSIDADE ESTADUAL PAULISTA Recursos Computacionais Antonio Martins.
Campus de Sorocaba UNIVERSIDADE ESTADUAL PAULISTA Recursos Computacionais Antonio Martins.
Funções de um computador
CFCs José RafaelRA: LívioRA: MuriloRA: Vinícius Araújo RA:
Sensor de Proximidade Capacitivo
Prof: Encoder Linear Prof:
Sistemas de Tutoria Inteligente (STI) Visam proporcionar instrução de forma adaptada a cada aprendiz. STIs adaptam o processo de instrução a determinadas.
CT-300 – Seminário de Tese 1/25 Um Framework Padrão para Simulação de Modelos de Robôs Móveis de Robôs Móveis Juliano A. Pereira Prof. Carlos H. C. Ribeiro.
Modulo Especialista.
01/08/20061 CT-282 Tutores Inteligentes ITA - INSTITUTO TECNOLÓGICO DE AERONÁUTICA.
CE-262 Ontologia e Web Semântica Prof. José M Parente de Oliveira
CES-11 LAB 03 Bitmap Quadtree
CES-10 INTRODUÇÃO À COMPUTAÇÃO Capítulo XI Noções de Estruturas de Dados.
CE-262 Ontologia e Web Semântica Prof. José M Parente de Oliveira Sala 120 – Prédio da Computação Lógica de Descrições.
Avaliação de direcionadores de Custos - Estudo de Caso Avaliação de direcionadores de Custos - Estudo de Caso Edson de Oliveira Pamplona 1999 OBJETIVO.
III – Uso Infraestrutura – Empresa Digital Escola Politécnica da USP MBA EPUSP em Gestão e Engenharia do Produto EP018 O Produto Internet e suas Aplicações.
FUNDAÇÃO CARLOS CHAGAS
MAC499 - Trabalho de Formatura Supervisionado Sistema de Reconhecimento de Escrita On-Line.
BlastPhen Aluno: Ricardo Nishikido Pereira
Mac-499 Trabalho de Formatura Supervisionado
Teorema do Confronto Se não pudermos obter o limite diretamente, talvez possamos obtê-lo indiretamente com o teorema do confronto. O teorema se refere.
TE 043 CIRCUITOS DE RÁDIO-FREQÜÊNCIA
Representações na base decimal e binária
Sistemas Lineares Parte 2
Desempenho A rápida taxa de melhoria na tecnologia de computadores veio em decorrência de dois fatores: avanços na tecnologia utilizada na construção.
7. INTEGRAÇÃO NUMÉRICA Parte 1
UERJ - Agosto 2000© Oscar Luiz Monteiro de Farias1 Bancos de Dados Mestrado em Engenharia de Computação área de concentração Geomática.
Redes Embutidas - Prof a Luiza Mourelle 1 1 Topologias As topologias de redes intrachip podem ser agrupadas em duas classes principais: as redes diretas.
Capítulo 1 Introdução 1.1 O que é um sistema operacional
Recursividade Estrutura de Dados.
The Data Warehouse Toolkit
PROTEÍNAS.
PHD5873/04-1 PHD 5873 Complementos de Hidrologia Aula 3 – Séries Sintéticas de Vazões EPUSP, 07 de outubro de 2003 Prof. Dr. José Rodolfo Scarati Martins.
LINGUAGENS DE PROGRAMAÇÃO
Internet Aula 03. Histórico Durante a guerra fria, os EUA tiveram a necessidade de interligar laboratórios que trabalhavam para os militares; Essa interligação.
Conceitos Básicos de Redes de Computadores e acesso a Internet
Redes para Automação Industrial Capítulo 1: Automação Industrial
Visão Computacional Formação da Imagem
Robótica: Sistemas Sensorial e Motor
Prof. André Laurindo Maitelli DCA-UFRN
Introdução Ciência da Computação estudo de algoritmos –ÊNFASE ao estudo de DADOS armazenamento manipulação refinamento (a partir de dados cru) estrutura.
1 Seja o resultado de um experimento aleatório. Suponha que uma forma de onda é associada a cada resultado.A coleção de tais formas de ondas formam um.
8. Uma Função de duas Variáveis Aleatórias
Transcrição da apresentação:

Prof. Dr. Helder Anibal Hermini ES725 INTELIGÊNCIA ARTIFICIAL APLICADA Prof. Dr. Helder Anibal Hermini

AULA 3 REDES NEURAIS ARTIFICIAIS

Sumário Introdução Histórico Neurônio artificial Treinamento do neurônio Redes de neurônios Treinamento da rede Aplicações Extração de regras

Introdução

Inteligência Computacional A Inteligência Computacional busca, através de técnicas inspiradas na Natureza, o desenvolvimento de sistemas inteligentes que imitem aspectos do comportamento humano, tais como: aprendizado, percepção, raciocínio, evolução e adaptação.

Redes Neurais Artificiais (RNA) Definições: Técnica inspirada no funcionamento do cérebro, onde neurônios artificiais, conectados em rede, são capazes de aprender e de generalizar. Técnica de aproximação de funções por regressão não linear.

Capacidade de Generalização Isso significa que se a rede aprende a lidar com um certo problema, e lhe é apresentado um similar, mas não exatamente o mesmo, ela tende a reconhecer esse novo problema, oferecendo a mesma solução.

Aproximador de funções A característica mais significante de redes neurais está em sua habilidade de aproximar qualquer função contínua ou não contínua com um grau de correção desejado. Esta habilidade das redes neurais as tem tornado útil para modelar sistemas não lineares.

Mapeamento Entrada-Saída para Aproximação de Funções Objetivo da Aprendizagem: descobrir a função f() dado um número finito (desejável pequeno) de pares entrada-saída (x,d).

Redes Neurais Artificiais (RNA) Devido à sua estrutura, as Redes Neurais Artificiais são bastante efetivas no aprendizado de padrões a partir de dados: não-lineares, incompletos, com ruído e até compostos de exemplos contraditórios.

INSPIRAÇÃO BIOLÓGICA

Técnica x Natureza Técnica Computacional Inspiração na Natureza Redes Neurais Artificiais Neurônios biológicos Computação Evolucionária Evolução biológica Lógica “Fuzzy” Processamento lingüístico Sistemas Especialistas Processo de Inferência

Principais Componentes dos Neurônios Os dentritos, que tem por função, receber os estímulos transmitidos pelos outros neurônios; O corpo de neurônio, também chamado de soma, que é responsável por coletar e combinar informações vindas de outros neurônios; E finalmente o axônio, que é constituído de uma fibra tubular que pode alcançar até alguns metros, e é responsável por transmitir os estímulos para outras células.

Principais Componentes dos Neurônios Em média, cada neurônio forma entre mil e dez mil sinapses. O cérebro humano possui cerca de 1011 neurônios, e o número de sinapses é de mais de 1014, possibilitando a formação de redes muito complexas.

Quadro comparativo entre cérebro e o computador  Parâmetro  Cérebro  Computador  Material  Orgânico  Metal e plástico  Velocidade  Milisegundos  Nanosegundos  Tipo de Processamento  Paralelo  Seqüencial  Armazenamento  Adaptativo  Estático  Controle de Processos  Distribuído  Centralizado  Número de elementos processados  1011 à 1014  105 à 106 Eficiência energética 10-16 J/op./seg. 10-6 J/op./seg  Ligações entre elementos processados  10.000  <10

Histórico

Histórico (1943) O neurofisiologista McCulloch e matemático Walter Pitts (1943), cujo trabalho fazia uma analogia entre células vivas e o processo eletrônico, simulando o comportamento do neurônio natural, onde o neurônio possuía apenas uma saída, que era uma função do valor de suas diversas entradas.

O neurônio de McCulloch e Pitts Consiste basicamente de um neurônio que executa uma função lógica. Os nós produzem somente resultados binários e as conexões transmitem exclusivamente zeros e uns. As redes são compostas de conexões sem peso, de tipos excitatórias e inibitórias. Cada unidade é caracterizada por um certo limiar (threshold) q.

Histórico (1949) O psicólogo Donald Hebb, demostrou que a capacidade da aprendizagem em redes neurais biológicas vem da alteração da eficiência sináptica, isto é, a conexão somente é reforçada se tanto as células pré-sinápticas quanto as pós-sinápticas estiverem excitadas; Hebb foi o primeiro a propor uma lei de aprendizagem específica para as sinápses dos neurônios.

Histórico (1951) Construção do primeiro neuro computador, denominado Snark, por Mavin Minsky. O Snark operava ajustando seus pesos automaticamente.

Histórico (1956) Surgimento dos dois paradigmas da Inteligência Artificial: Simbólica: tenta simular o comportamento inteligente humano desconsiderando os mecanismos responsáveis por tal. Conexionista: acredita que construindo-se um sistema que simule a estrutura do cérebro, este sistema apresentará inteligência, ou seja, será capaz de aprender, assimilar, errar e aprender com seus erros.

Histórico (1958) Rosemblatt (1958) mostrou em seu livro (Principles of Neurodynamics) o modelo dos "Perceptrons". Nele, os neurônios (Perceptrons) eram organizados em camada de entrada e saída, onde os pesos das conexões eram adaptados a fim de se atingir a eficiência sináptica usada no reconhecimento de caracteres.

Perceptron Clássico – Rosenblatt (1958)

Histórico (1960) Em 1960 surgiu a rede ADALINE (ADAptative LInear NEtwork) e o MADALINE (Many ADALINE), proposto por Widrow e Hoff. O ADALINE/MADALINE utilizou saídas analógicas em uma arquitetura de três camadas.

Histórico (1969) Foi constatado por Minsky & Papert que um neurônio do tipo Perceptron só é capaz de resolver problemas com dados de classes linearmente separáveis.

Histórico (1960-1970) Muitos historiadores desconsideram a existência de pesquisa nessa área nos anos 60 e 70.

Histórico (1982) Retomada das pesquisas com a publicação dos trabalhos do físico e biólogo Hopfield relatando a utilização de redes simétricas para otimização, através de um algoritmo de aprendizagem que estabilizava uma rede binária simétrica com realimentação.

Histórico (1986) Rumelhart, Hinton e Williams introduziram o poderoso método de treinamento denominado “Backpropagation”. Rumelhart e McClelland escreveram o livro “Processamento Paralelo Distribuído: Explorações na Microestrutura do Conhecimento”.

Histórico (1988) Broomhead e Lowe descreveram um procedimento para o projeto de uma rede neural (feedforward) usando funções de base radial (Rede de Base Radial – RBF).

Neurônio Artificial

Componentes do primeiro neurônio artificial As sinapses (entradas), com seus pesos associados A junção somadora; e A função de ativação.

Primeiro Modelo O neurônio de McCulloch e Pitts (1943) Consiste basicamente de um neurônio que executa uma função lógica. Os nós produzem somente resultados binários e as conexões transmitem exclusivamente zeros e uns. As redes são compostas de conexões sem peso, de tipos excitatórios e inibitórios. Cada unidade é caracterizada por um certo limiar (threshold) q.

A regra para avaliação de um neurônio McCulloch-Pitts Assume–se que a unidade recebe entradas excitatórias através de n conexões de entrada e entradas inibitórias através de m conexões de entrada. Se e pelo menos um dos sinais y1, y2, ..., ym é 1, a unidade é inibida e a saída é 0. Caso contrário, o total de entradas (x= x1 + x2 + ... xn) excitatórias é computado e comparado com o threshold q. Se a saída é 1 (a unidade dispara). Se x < q o resultado é 0.

Perceptron Basicamente o perceptron consiste de uma única camada de neurônios com pesos sinápticos e bias ajustáveis. Se os padrões de entrada forem linearmente separáveis, o algoritmo de treinamento possui convergência garantida, i.é, tem capacidade para encontrar um conjunto de pesos que classifica corretamente os dados. Os neurônios do perceptron são similares ao de McCulloch-Pitts, por terem a função de ativação do tipo degrau, mas possuem pesos associados e bias. Função degrau

Perceptron - O neurônio genérico de Redes Neurais Artificiais (RNAs) As principais partes de um neurônio genérico de RNAs são: As sinapses (entradas), com seus pesos associados A junção somadora e A função de ativação.

Princípio de funcionamento Sinais são apresentados à entrada (x1 à xm); Cada sinal é multiplicado por um peso que indica sua influência na saída da unidade (wk); É feita a soma ponderada dos sinais que produz um nível de atividade (uk); A função de ativação f(uk) tem a função de limitar a saída e introduzir não-linearidade ao modelo. O bias bk tem o papel de aumentar ou diminuir a influência do valor das entradas. É possível considerar o bias como uma entrada de valor constante 1, multiplicado por um peso igual a bk. Função degrau

Expressão matemática do neurônio artificial Matematicamente a saída pode ser expressa por: ou considerando o bias como entrada de valor x0=1 e peso wk0=bk,

Redes de Neurônios

Arquitetura das RNAs Uma rede neural artificial é composta por várias unidades de processamento (neurônios), cujo funcionamento é bastante simples. Essas unidades, geralmente são conectadas por canais de comunicação que estão associados a determinado peso. As unidades fazem operações apenas sobre seus dados locais, que são entradas recebidas pelas suas conexões. O comportamento inteligente de uma Rede Neural Artificial vem das interações entre as unidades de processamento da rede.

Características Gerais das RNAs São modelos adaptativos treináveis Podem representar domínios complexos (não lineares) São capazes de generalização diante de informação incompleta Robustos São capazes de fazer armazenamento associativo de informações Processam informações Espaço/temporais Possuem grande paralelismo, o que lhe conferem rapidez de processamento

Tipos de Redes Neurais Artificiais Existem basicamente 3 tipos básicos de arquitetura de RNAs: Feedforward (alimentação de avanço) de uma única camada Feedforward (alimentação de avanço) de múltiplas camadas e Redes recorrentes.

Classificação de Camadas Usualmente as camadas são classificadas em três grupos: Camada de Entrada: onde os padrões são apresentados à rede; Camadas Intermediárias ou Ocultas: onde é feita a maior parte do processamento, através das conexões ponderadas; podem ser consideradas como extratoras de características; Camada de Saída: onde o resultado final é concluído e apresentado.

Classificação de Camadas de entrada de saída escondida

Rede feedforward de uma única camada Os neurônios da camada de entrada correspondem aos neurônios sensoriais que possibilitam a entrada de sinais na rede (não fazem processamento). Os neurônios da camada de saída fazem processamento.

Rede feedforward de Múltiplas Camadas (Multilayer Perceptron - MLP) Essas redes tem uma ou mais camadas intermediárias ou escondidas.

Redes recorrentes Essas redes possuem pelo menos uma interconexão realimentando a saída de neurônios para outros neurônios da rede (conexão cíclica). Exemplo: Rede de Hopfield

Rede de Kohonen

Topologias das redes neurais

Rede de Elman & Rede de Jordan

Redes de Base Radial (RBF)

Treinamento da rede

Treinamento A propriedade mais importante das redes neurais é a habilidade de aprender de seu ambiente e com isso melhorar seu desempenho. Isso é feito através de um processo iterativo de ajustes aplicado a seus pesos, o treinamento. O aprendizado ocorre quando a rede neural atinge uma solução generalizada para uma classe de problemas. Denomina-se algoritmo de aprendizado a um conjunto de regras bem definidas para a solução de um problema de aprendizado. Existem muitos tipos de algoritmos de aprendizado específicos para determinados modelos de redes neurais. Estes algoritmos diferem entre si principalmente pelo modo como os pesos são modificados.

Modelos de Aprendizagem Os principais modelos (paradigmas) de aprendizagem são: supervisionado; 2) não-supervisionado; e 3) com reforço.