Prof. Rafael Stubs Parpinelli

Slides:



Advertisements
Apresentações semelhantes
IA Importância da IA em jogos Aplicações.
Advertisements

Aplicações da Integral da Integral
Luiz Marcos Curvas paramétricas Luiz Marcos
Movimento Retilíneo Uniforme
MOVIMENTO EM DUAS DIMENSÕES
CONDUÇÃO ELÉTRICA EM SÓLIDOS
Programação Linear Método Simplex
I Iterated Local Search Helena R. Lorenço, Olivier Martinz
Comportamento Coletivo Biológico
Geoestatística Aplicada à Agricultura de Precisão II
Colônia de Formigas (Ant Colony Optimization)
Reconhecimento de Padrões Inteligência de Enxame
Swarm Intelligence (Inteligência Coletiva)
Otimização por Colônias de Formigas – ACO (Ant Colony Optimization)
Algoritmo das formigas
TESE DE MESTRADO APLICAÇÃO DE REDES NEURAIS DE
Thales Eduardo Nazatto
INF 1771 – Inteligência Artificial
Introdução aos Sistemas de Controle
Aula 4: Matrizes e Operações Matriciais
A Framework for Robots Development and Programming Based on Genetic Algorithms Palmeira P.F.M Silvino J.S. de Melo J.C.D DEE-UFMG DELT-UFMG.
Meta - heurísticas Prof. Aurora
Otimização Prof. Benedito C. Silva IRN UNIFEI
Aurora Pozo– UFPR – Meta-Heurísticas
Otimização por Colônia de Formigas (ACO)
I Iterated Local Search Helena R. Lorenço, Olivier Martinz
Nuvem de Partículas PSO - Particle Swarm Optimization (1995)
Otimização.
A DESCRIÇÃO DO MOVIMENTO
Matemática para Economia III
Nuno Orientador: Prof. João Paulo Tomé Saraiva Apoio no INESC:
Algoritmos Genéticos.
Redes Neurais Prof. Alex F. V. Machado.
Aprendizagem de Máquina
Algoritmos e Estruturas de Dados I – Recursão
Algoritmos e Estruturas de Dados I – Recursão
Aula V – Técnicas de Solução da equação de Laplace
Princípios de Cinemática
Matemática para Economia III
Resolução de Problemas
Introdução Prof. Antonio Carlos Coelho
Os Primeiros passos do movimento
1 Introdução aos Agentes Inteligentes Inventando Funções Heurísticas Flávia Barros.
Leandro M. Almeida OTIMIZAÇÃO BASEADA EM COLÔNIA DE FORMIGAS (ACO) E POR ENXAMES DE PARTÍCULAS (PSO) Leandro M. Almeida
Ergonomia I.
Transformada de Hough Processamento global para a detecção de linhas retas numa imagem Nenhum conhecimento é necessário a respeito da posição das linhas.
Movimento em duas dimensões
Métodos de Resolução Solução Analítica Solução Numérica
Prof. Anne Magály de Paula Canuto
Exemplo 7. Encontre a velocidade instantânea da partícula descrita na Figura 1 nos seguintes instantes: (a) t = 1.0 s, (b) t = 3.0 s, (c) t= 4.5 s, e (d)
Otimização por Nuvem de Partículas Maurice Cler Traduzido por A. Pozo.
Busca Competitiva Disciplina: Inteligência Artificial
Carlos Eduardo Martins Barbosa
Sistemas de Informação Inteligentes Prof. Nadilma Nunes.
PSICOMOTRICIDADE CONCEITO TEORIAS.
Computação Evolutiva Nome dado ao estudo de algoritmos cuja inspiração é o processo de evolução natural das espécies. Origem: trabalho de um pesquisador.
Luiz Eduardo Balabram.  CERN  UPSO  Resultados  Conclusão.
Aula 1.
Professora Paula Melo Silva
Ant Colony Optimization Theory Rio de Janeiro 2011 Disciplina: Inteligência de Enxame Docente: José Manoel Seixas Discente: José Dilermando Costa Junior.
Busca Heurística Prof. Valmir Macário Filho. 2 Busca com informação e exploração Capítulo 4 – Russell & Norvig Seção 4.1 Estratégias de Busca Exaustiva.
Trabalho e Energia O problema fundamental da dinâmica de uma partícula é saber como a partícula se move, se conhecermos a força que actua sobre ela (como.
USO DA REDUÇÃO DE PRESSÕES COMO POLÍTICA NA REDUÇÃO DO VOLUME DE VAZAMENTO.
PC - Semana61 MODELANDO SISTEMAS LTI NO DOMÍNIO DA FREQUÊNCIA.
2 – Movimento Uniforme / MU Site:
CENTRO DE MASSA E MOMENTO LINEAR
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 12 Aprendizado não Supervisionado Mapas auto-organizáveis Max Pereira.
Algoritmos BioInspirados: Inteligência de Enxames
Ant Colony Optimization Eraylson Galdino da Silva Universidade Federal de Pernambuco Centro de Informática Tópicos Avançados em Inteligência.
Particle Swarm Optimization (PSO)
Transcrição da apresentação:

Prof. Rafael Stubs Parpinelli Otimização por Enxame de Partículas (Particle Swarm Optimization - PSO) Prof. Rafael Stubs Parpinelli

Swarm Intelligence  ACO e PSO Comportamentos emergentes que surgem da coletividade de indivíduos simples que interagem entre si e com o ambiente ACO – Ant Colony Optimization: Inspirada no comportamento de busca por alimentos das formigas Aplicações em problemas de otimização combinatorial PSO – Particle Swarm Optimization: Inspirada na coreografia dos pássaros e cardumes

PSO Enxame de Partículas: Originalmente criado por Kennedy (psicólogo social) e Eberhart (engenheiro elétrico) (1995) Inspirada na coreografia dos pássaros e cardumes Simular o comportamento social de seres vivos Idéia básica: A interação social é capaz de encontrar soluções ótimas para problemas difíceis

PSO Comportamento Social Na natureza, quando um grupo de aves ou cardume de peixes procura alimento, pode -se considerar que cada indivíduo orienta sua busca por duas componentes: a primeira é a sua própria experiência anterior em já conhecer locais onde costuma encontrar alimento (nostalgia) a outra componente é a informação obtida através de outros indivíduos de seu grupo social.

PSO Características: Baseado em população As potenciais soluções – partículas – “sobrevoam” um espaço de busca n-dimensional A busca se dá através da aceleração e desaceleração das partículas: informação local (componente cognitivo) e informação global (componente social)

Exemplo de Visualização

PSO Cada partícula é composta pelos seguintes vetores: xi = (xi1, xi2, ... , xin) vi = (vi1, vi2, ... , vin) yi = (yi1, yi2, ... , yin) Equação de atualização da melhor posição já visitada (problema de minimização): Posição atual Deslocamento Componente Cognitivo yi(t+1)= yi(t) se f(xi(t+1))  f(yi(t)) xi(t+1) se f(xi(t+1)) < f(yi(t)) [1]

PSO Existem duas versões do alg. PSO: Gbest e Lbest A diferença baseia-se no grupo de partículas ao qual uma partícula irá interagir diretamente para identificar a informação da melhor partícula Gbest: toda a população é considerada Lbest: Somente alguns vizinhos especificados são considerados A melhor partícula será representada pelo símbolo: ÿ(t)

PSO Possui duas seqüências aleatórias independentes: r1j e r2j  (0,1) , onde j  1..n Possui duas constantes (coeficientes de aceleração): 0 ≤ c1, c2   ≤ 4 , usualmente c1 = c2 = 2.05 tamanho máximo de um passo que uma partícula pode dar em uma interação

PSO Equação de atualização das velocidades: Da equação acima: c1 regula o tamanho do passo na direção da melhor posição encontrada até o momento pela partícula (componente cognitivo) c2 regula o tamanho do passo na direção da melhor partícula encontrada globalmente/regionalmente (componente social) vij(t+1) = [2] vij(t) + c1.r1j(t)[ yij(t) - xij(t)] + c2.r2j(t)[ ÿj(t) - xij(t)] se Xmin < xij < Xmax Onde j  1..n

PSO Equação de atualização de posições Restrições Limites do espaço de busca para cada dimensão: [Xmin, Xmax] ou [-Xmax, Xmax] Vmax: utilizada para limitar as velocidades, evitando que as partícula extrapolem o espaço de busca. [Vmin, Vmax] ou [-Vmax, Vmax] Normalmente usa-se Vmin = Xmin e Vmax = Xmax xij(t) + vij(t+1) se Xmin ≤ ( xij(t) + vij(t+1) ) ≤ Xmax [3] xij(t+1) = Xmax se ( xij(t) + vij(t+1) ) > Xmax Xmin se ( xij(t) + vij(t+1) ) < Xmin

PSO Pseudo código: Passo de inicialização Inicializar aleatoriamente cada coordenada xij dentro de seu domínio Inicializar aleatoriamente cada vij dentro de seu domínio Atribuir yi = xi para toda partícula Crie e inicialize um PSO n-dimensional: S Repita Para cada partícula i Se f(xi) < f(yi) // identifica melhor componente cognitivo Então yi = xi Se f(yi) < f(ÿ) // identifica melhor componente social Então ÿ = yi Fim_para Realize as atualizações no enxame S utilizando as equações (2) e (3) Até condição de parada ser verdadeira

PSO A cada passo de atualização, o comportamento de uma partícula é um balanço de 3 possíveis escolhas: Seguir a trajetória original: vi(t) Ir na direção do componente social: ÿ(t) Ir na direção do componente cognitivo: yi(t) ÿ(t) y2(t) y1(t) velocidade original vi(t) velocidade na direção ÿ(t) velocidade na direção yi(t) velocidade resultante

PSO Melhoria: peso de inércia (w) Controla a influência da velocidade em um instante de tempo anterior Velocidade define a intensidade da busca: valores altos resultam em movimentos bruscos; valores baixos podem resultar na exploração insuficiente do espaço de busca w regula o trade-off entre exploração local e global: 0 < w   < 1.5 vij(t+1) = w.vij(t) + c1.r1j(t)[ yij(t) - xij(t)] + c2.r2j(t)[ ÿj(t) - xij(t)] Onde j  1..n

PSO Peso de inércia: Os três coeficientes social/cognitivo quantificam respectivamente: O quanto a partícula confia em si mesma (w) O quanto ela confia na sua experiência (c1) O quanto ela confia nos seus vizinhos (c2) x(t) ÿi(t) vi(t) x(t+1) yi(t)

PSO Melhoria: fator de constrição (K) Onde Atua no componente resultante da composição dos movimentos Onde vij(t+1) = k[vij(t) + c1.r1j(t)[ yij(t) - xij(t)] + c2.r2j(t)[ ÿj(t) - xij(t)]] Onde j  1..n

Aplicações Otimização de funções Treinamento de redes neurais Evolução da arquitetura de redes neurais Controle de sistemas fuzzy Balanceamento de ingredientes para maximizar a produção Cálculo de carga em sistemas elétricos Segmentação de imagens Simulação de sinais de EEG Verificação de voz