A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Universidade Federal do Rio Grande do Norte Programa de pós-graduação em Engenharia Elétrica e de Computação Aluno: Nielsen Castelo Damasceno Orientador:

Apresentações semelhantes


Apresentação em tema: "Universidade Federal do Rio Grande do Norte Programa de pós-graduação em Engenharia Elétrica e de Computação Aluno: Nielsen Castelo Damasceno Orientador:"— Transcrição da apresentação:

1 Universidade Federal do Rio Grande do Norte Programa de pós-graduação em Engenharia Elétrica e de Computação Aluno: Nielsen Castelo Damasceno Orientador: Allan de Medeiros Martins Co-Orientador: Adrião Duarte Dória Neto Defesa de Mestrado

2  Introdução  Análise de Componentes Independentes  Separação de fontes usando Negentropia  Algoritmo Genéticos  RBF  Método proposto  Resultados experimentais  Considerações finais AGENDA

3  Surgimento de novas técnicas de separação de sinais;  Algoritmos ICA que utilizam medida de Independência: estatística de ordem superior e teoria da informação;  Contribuições de Alfred Rényi;  Na década de 90 deram os passos iniciais para utilização da entropia de Rényi;  Algoritmos que utilizam entropia de Rényi com kernel gaussiano e janelamento de Parzen. INTRODUÇÃO

4 OBJETIVO Separações cega de fontes para o caso de misturas lineares e não-lineares. Utilizando RBF, Algoritmos Genéticos e a Negentropia de Rényi.  Encontrar um matriz de separação W.  Encontrar uma função G não linear.

5 ANÁLISE DE COMPONENTES INDEPENDENTES Dado um problema de resolução de um sistema de equação linear Solução: atribuir algumas propriedades estáticas sobre os sinais.

6  Motivado pelo problema do Cocktail-party Fonte: s Coeficientes: A Misturas: x ANÁLISE DE COMPONENTES INDEPENDENTES

7

8  Varios métodos NLICA impõe restrições ao modelo de mistura  Mapeamentos não-linear que preserva a Independência é chamada de trivial. ANÁLISE DE COMPONENTES INDEPENDENTES

9  NEGENTROPIA Conceito base: Entropia Teoria da informação: Uma variável gaussiana tem o maior valor da entropia  Medida de não-gaussianidade  Método clássico  Substituir momentos polinomiais SEPARAÇÃO DE FONTES USANDO NEGENTROPIA

10 ALGORITMOS GENÉTICOS  Baseado nos mecanismo de seleção e evolução natural;  Problemas de otimização

11 ALGORITMOS GENÉTICOS  Representação 0 000000000  Inicialização da população  Avaliação Negentropia de Rényi

12 ALGORITMOS GENÉTICOS  Seleção  Reprodução Pai B Pai A 10 0 0 1 1 1 1 010 00 1 1 1 1 0 0 100 1 1 0 0 1 1 1 1 0 0 0 0 1 1 0 0 0 0 0 0 0 0 1 1 1 1 1 1 0 0 0 0 a) Ponto do corte b ) Resultado da recombinação Filho Pai 10 0 0 1 1 1 1 010 10 0 0 1 1 0 0 010

13 RBF (Radial Basis Functions) REDES NEURAIS ARTIFICIAIS  Neurônio artificial;  Arquiteturas: Recorrentes e Multicamadas

14 MÉTODO PROPOSTO  Modelo geral estratégia linear s s A A x x W W y y AG(W,x,y) Parâmetros desconhecidos

15 MÉTODO PROPOSTO  Modelo geral estratégia não linear s s x x y y AG(W,C,x,y) Parâmetros desconhecidos

16 Entropia de Rényi para um v.a. X : MÉTODO PROPOSTO

17

18  Entropia quadrática de Rényi MÉTODO PROPOSTO

19 Negentropia de Rényi

20 RESULTADOS EXPERIMENTAIS  65536 amostras  População com 16 bits para cada gene  População com 144 bits  Separação cega de fontes lineares

21 RESULTADOS EXPERIMENTAIS

22

23 ExperimentoAmostras/UtilizadosPopulaçãoErro AGErro P-ICAErro FastICA 150/50505.1818e-0074.9440e-0069.9365e-006 250/501001.8315e-0072.6616e-0071.0328e-005 350/502001.0785e-0078.7361e-0064.8179e-006 450/505002.6961e-0061.4256e-0061.2347e-005 5100/100507.0970e-0094.0143e-0084,9859e-008 6100/1001003.2528e-0081.1351e-0062.0106e-007 7100/1002002.1759e-0081.0717e-0061.1719e-006 8100/1005006.6869e-0095.9524e-0071.0514e-007 91000/100509.0989e-0136.8629e-0102.8732e-010 101000/1001009.6552e-0137.0855e-0108.9876e-010 111000/672001.2564e-0116.4485e-0104.1369e-010 121000/345004.6911e-0126.9532e-0107.7314e-010 131000/205002.6968e-0111.5474e-0119.0227e-010  Comparação entre modelo linear e outras abordagens

24  Separação cega de fontes não lineares RESULTADOS EXPERIMENTAIS  População com 16 bits para cada gene  População com 640 bits

25 RESULTADOS EXPERIMENTAIS  65536 amostras  População com 16 bits para cada gene  População com 640 bits

26 RESULTADOS EXPERIMENTAIS  População com 16 bits para cada gene  120 genes  População de 1920 bits

27 Experimento Amostras População Nº de centros e pesos Kernel Entropia Sigma base radial Erro AG 1350050100,5 1,7854e-005 280100100,513.0396e-006 33500200100,5 5,7138e-004 416384200100,5 3,7154e-017 5200100100,5 1,3490e-007 6334100100,558,2305e-012 765536100100,5 4.0027e-017 85000100300,516,9189e-012 RESULTADOS EXPERIMENTAIS  Separação cega de fontes com adição de ruído AW

28 RESULTADOS EXPERIMENTAIS

29

30 CONSIDERAÇÕES FINAIS  Neste trabalho, propomos a aplicação GA para maximizar a Negentropia de Rényi das misturas.  Modelo linear deve-se ajustar o parâmetro da Negentropia.  Quantidade de amostras no sinal de fontes.  No modelo não linear deve-se ajustar o parâmetro da Negentropia e da função de base radial.  Adição de ruído gaussiano no modelo linear e não linear.  Fazer uma análise no parâmetro da Negentropia.  Testes em cenários práticos em tempo real.  Experimentos em ambientes sobre-determinados e sub-determinados.  Prova da separabilidade do modelo.

31 MUITO OBRIGADO!


Carregar ppt "Universidade Federal do Rio Grande do Norte Programa de pós-graduação em Engenharia Elétrica e de Computação Aluno: Nielsen Castelo Damasceno Orientador:"

Apresentações semelhantes


Anúncios Google