A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Redes Bayesianas – Aprendizado

Apresentações semelhantes


Apresentação em tema: "Redes Bayesianas – Aprendizado"— Transcrição da apresentação:

1 Redes Bayesianas – Aprendizado
Rudini Sampaio DCC / UFLA

2 Redes Bayesianas - Aprendizado
Processo que permite obter a estrutura causal da rede bayesiana, bem como suas tabelas de probabilidade condicional e a priori, a partir de banco de dados. Aprendizado de Parâmetros Obtenção das tabelas de probabilidade condicional e a priori, a partir de um banco de dados, para uma rede bayesiana com estrutura já definida. Aprendizado da Estrutura Obtenção da estrutura de uma rede bayesiana, a partir de um banco de dados. Por estrutura, entendemos as relações causais entre as variáveis.

3 Redes Bayesianas - Aprendizado
Dados faltantes Algoritmo EM (Expectation Maximization) Tenta encaixar uma distribuição de probabilidade para as variáveis com dados faltantes. O algoritmo EM faz uma estimativa de máxima verossimilhança dos parâmetros dessas distribuições, ou seja, parâmetros que maximizem a função de verossimilhança. A B C D E y n -- Y

4 RB – Aprendizado de Parâmetros
Algoritmo de Contagem de Freqüências Algoritmo mais simples possível Necessita de grande massa de dados Sem dados suficientes para calcular para C=y e D=y A B C D E y n

5 RB – Aprendizado de Estrutura
Algoritmos de Análise de Dependência Algoritmo PC (Path Condition, Spirtes, 1993) (Sistema Hugin) Algoritmo NPC (Necessary Path Condition) (Sistema Hugin) Algoritmo BPC (Best Path Condition) Algoritmo CBL (Chen, Bell, Liu, ) Algoritmos de Pontuação Algoritmo K2 (Cooper and Herskovits, 1992) Algoritmo K3 (Neapolitan, 2002)

6 RB – Teste de Independência
Cross Entropy (Entropia Cruzada ou Informação Mútua) Condicional: X e Y são independentes dado Z se CE(X,Y | Z) = 0 Teste de Independência: I ( X, Y | A ) Aplica distribuição Chi-Square com parâmetros: rX é o número de estados da variável X m é o tamanho da base de dados Nível de significância é geralmente 0.01 ou 0.05 Teoria da Informação (Shannon, 1949)

7 RB – Aprendizado de Estrutura (PC)

8 RB – Aprendizado de Estrutura (PC)
Direcionamento das Arestas Observações Requer ordem dos vértices Inicia com grafo completo e depois enxuga a estrutura

9 RB – Aprendizado de Estrutura (NPC)
Algoritmo NPC (Necessary Path Condition) Considera apenas os vizinhos de X e Z que estejam em algum caminho entre X e Z O algoritmo PC consideraria os vértices Y1, Y2 e Y3

10 RB – Aprendizado de Estrutura (BPC)
Algoritmo BPC (Best Path Condition) Procura um conjunto mínimo de vértices que separam X e Z Algoritmo para Corte Mínimo: ACID & CAMPOS, 1996 O algoritmo NPC consideraria os vértices Y1, Y2 e Y3

11 RB – Aprendizado de Estrutura (TPDA)
Algoritmo TPDA (Three Phase Dependency Analysis) Cheng, Bell, Liu (CBL, 1997) TPDA inicia com grafo vazio. Também requer ordem dos vértices TPDA liga os vértices mais dependentes (Fase1: esboço), depois liga vértices dependentes dado um corte entre eles (Fase2: engrossa) e depois reajusta eliminando ligações desnecessárias (Fase3: emagrece) Observação: TPDA usa entropia cruzada como teste de independência, ignorando a distribuição ChiSquare. Por isso, dá erro com variáveis de muitos estados.

12 RB – Aprendizado de Estrutura (K2)
Algoritmo K2 (Cooper and Herskovits, 1992) Algoritmo guloso de pontuação (requer ordem dos vértices)

13 RB – Aprendizado de Estrutura (K3)
Algoritmo K3 (Neapolitan, 2002) Algoritmo guloso de pontuação (NÃO requer ordem dos vértices) Operações para obtenção da próxima rede

14

15


Carregar ppt "Redes Bayesianas – Aprendizado"

Apresentações semelhantes


Anúncios Google