Geber Ramalho 1 Objetivo da aprendizagem Conhecimento em extensão (exemplos percepção-ação, características-conceitos, etc.) Conhecimento em intenção.

Slides:



Advertisements
Apresentações semelhantes
Construção de listas de decisão Os tópicos anteriores tratam de indução de conceitos que podem ser descritos usando uma única região de decisão Neste tópico.
Advertisements

Agenda Introdução Justificativa Objetivo Detecção de Spam
Inteligência Artificial
Aprendizado por Reforço: Uma Aplicação do Aprendizado Q
Trabalho Escolar de Filosofia
Tomada de Decisões Aula 3.
Cálculo Relacional Datalog não-recursivo
Inteligência Artificial I
Aprendizado de Descrições Lógicas
Aprendizado de Máquinas
DI - UFPE 1 Questões... nSó é possível chegar-se a conclusões gerais a partir da observação de muitos fatos? nAprendizagem é estatística?
Busca Online Alexandra Barros Geber Ramalho. Busca Offine x Busca Online Busca Offline (ou planejamento clássico) –Computa a solução (do estado inicial.
Aprendizagem Simbólica
Jacques Robin, Francisco Carvalho, Flávia Barros
APRENDIZAGEM COM CONHECIMENTO A PRIORI
1 Projeto Filtragem de Mensagens Eletrônicas Disciplina: Inteligência Artificial Simbólica Professores: Geber Ramalho e Jacques Robin.
FACENS – Engenharia da Computação Inteligência Artificial
Fast Effective Rule Induction (Willian W. Cohen)
RIPPER Fast Effective Rule Induction
Capítulo 3 - Russell e Norvig
INF 1771 – Inteligência Artificial
INF 1771 – Inteligência Artificial
Sistemas Inteligentes
Aprendizado de Máquina
Aprendizado de Árvores de Decisão
Classificação. Classificação: Atribuição a uma classe (rótulo de um atributo categórico). Classifica dados (constrói um modelo) baseado em um conjunto.
Algorítmos e estrutura de dados III
Aulas 9,10 Fábio Nakano.
Busca com informação e exploração
Escola Secundária Francisco de Holanda
Sistemas Inteligentes
Learning Sets of Rules Tom Mitchel (cap. 10)
Sistemas Inteligentes
Indução Matemática Recursão
Implementando Raciocínio na Ciência da Computacao
Os métodos equals() e hashCode()
Sistemas Inteligentes
Marcílio C. P. de Souto DIMAp/UFRN
Orientação a Objetos e Java Graduação em Ciência da Computação
CIn- UFPE 1 Implementando Raciocínio na Ciência da Computacao Lógica de Predicados/Primeira Ordem Métodos Formais para Desenvolvimento de Sistemas Banco.
O Processo de KDD Data Mining SUMÁRIO - AULA1 O processo de KDD
Algoritmos e Estruturas de Dados RECURSIVIDADE. O que é recursividade? Recursividade significa algo ser definido em termos de sí próprio. Em termos de.
Aula prática 2 Operadores e Expressões Comandos de Decisão Comentários
Árvores de Decisão Valmir Macário.
WEKA Jacques Robin João Batista Marcelino Pereira junho/2001.
Projeto Final MCI 2004 Filtragem de s Agente de Classificação de SPAM.
Jacques Robin CIn-UFPE Tipologia do conhecimento de saída da mineração de dados.
Aprendizagem por Reforço Alexandre Luiz G. Damasceno.
Linguagens de Programação
Decidibilidade, Corretude, Completude, Consistência
Prof. Anne Magály de Paula Canuto
INE Fundamentos de Matemática Discreta para a Computação
Classificação de Texto Baseada na aula de Henrique Borges e Ícaro Medeiros Alterada por Flávia Barros.
Decidibilidade, Corretude, Completude, Consistência, Monotonicidade
Inteligência Artificial I
Elsa Carvalho 262 Universidade da Madeira Departamento de Matemática Programação em Lógica e Funcional (2000/01) (Actualizado em 2004/05) Negação Com os.
Inteligência Artificial I
HAC 1 MD - junho/2008 Tecnologias de suporte à Mineração de Dados Gerenciamento de dados Data Warehouse OLAP Arquiteturas Visualização Sistemas de Suporte.
Aprendizado Baseado em Instancias. Introdução Em contraste aos métodos de aprendizado que constroem uma descrição explicita genérica da função alvo. Os.
Paradigmas de Mineração de Dados
Aprendizado de Máquinas
Linguagens de Programação
Linguagens de Programação
Aprendizado por Indução
Introdução a Aprendizagem de Máquina através da Indução de Árvores de Decisão Geber Ramalho Jacques Robin CIn-UFPE.
Aprendizagem Simbólica
DECOM – ICEB – UFOP Prof. Álvaro Guarda Aprendizado de Máquina - 0 Aprendizado Indutivo de Conceitos Conceito Conjunto de objetos com características comuns.
Conselhos para a aplicação de aprendizagem de máquinas
Mineração de Dados (Data Mining)
Busca Heurística Prof. Valmir Macário Filho. 2 Busca com informação e exploração Capítulo 4 – Russell & Norvig Seção 4.1 Estratégias de Busca Exaustiva.
Transcrição da apresentação:

Geber Ramalho 1 Objetivo da aprendizagem Conhecimento em extensão (exemplos percepção-ação, características-conceitos, etc.) Conhecimento em intenção (regras definições.) Exemplos dia 29, a Caxangá estava engarrafada dia 30, a Caxangá estava engarrafada dia 01, a Caxangá estava engarrafada dia 03, a Caxangá estava engarrafada Hipótese indutiva Todo dia, a Caxangá está engarrafada

Geber Ramalho 2 Aprendizado indutivo nInferência de uma regra geral (hipótese) a partir de exemplos particulares ex. trânsito na caxangá nPrecisão diretamente proporcional à quantidade de exemplos nÉ uma inferência que “preserva a falsidade” nPode ser incremental: atualiza hipótese a cada novo exemplo –mais flexível, situada... Porém a ordem de apresentação é importante (backtracking) não incremental: gera h a partir de todo conjunto de exemplos –mais eficiente e prática

Geber Ramalho 3 2 Abordagens típicas em aprendizagem simbólica nÁrvores de decisão: inductive decision trees (ID3) Lógica de ordem 0+ (atributo/valor) Fáceis de serem implementadas e utilizadas aprendizagem não incremental estatística (admite exceções) nEspaço de versões (Version space) lógica de primeira ordem & resolução implementação mais complicada aprendizagem incremental indução lógica unicamente

Geber Ramalho 4 Árvore de Decisão nA partir de um conjunto de propriedades, decide sim ou não nExemplo Soparia (by Carlos Figueira) predicado-objetivo: vaiASoparia Atributos considerados: –Sono: Estou com sono? –Transporte: Tenho como ir de carro? Carona? etc. –CONIC: Devo estar amanhã cedo no CONIC? –Álcool: Estou precisando de álcool? –Sair: Quero sair de casa? –Fome: Estou com fome?

Geber Ramalho 5 Árvore de Decisão “pensada” Sono? CONIC? Carro Não. Outros CONIC? Carona Sim Sim. Não Não. Não Quer sair? Sim Não. Sim. Não Meio de transporte? Pouco Sim Não. Sim. Não Precisa de álcool? Sim Sim. Não Não. atributo valores

Geber Ramalho 6 ID3: exemplos da soparia nAtributos: (Sono, Transporte, CONIC, Álcool, Sair, Fome)-> propriedade-objetivo E01: (Pouco,Carro,Sim,Sim,Não,Sim) -> Sim! E02: (Pouco,Carona,Não,Não,Sim,Sim) -> Sim! E03: (Sim,Carro,Não,Sim,Sim,Sim) -> Não. E04: (Pouco,Carona,Não,Não,Sim,Não) -> Sim! E05: (Sim,Outros,Sim,Sim,Sim,Não) -> Não. E06: (Pouco,Outros,Não,Sim,Não,Sim) -> Não. E07: (Pouco,Carro,Sim,Não,Sim,Sim) -> Sim! E08: (Pouco,Carona,Não,Não,Não,Sim) -> Não. E09: (Sim,Carro,Não,Sim,Sim,Não) -> Não. E10: (Não,Outros,Sim,Sim,Sim,Sim) -> Sim! E11: (Não,Carro,Não,Sim,Sim,Não) -> Sim! E12: (Não,Carona,Não,Sim,Sim,Sim) -> Sim!

Geber Ramalho 7 ID3: conceitos nClassificação aplicação do predicado objetivo p a um exemplo nExemplo positivo (ep) e exemplo negativo (en) p(ep) = verdadeiro, p(en) = falso nConjunto de treinamento positivos + negativos nObjetivo da aprendizagem gerar a descrição d de p segundo os atributos dados d deve ser consistente (cobre todos positivos e exclui todos negativos) e preditiva/geral (vai além da memorização) d deve ser a mais simples possível (navalha de Ockahm)

Geber Ramalho 8 ID3: construção da árvore nEscolha do melhor atributo O que discrimina o maior número de exemplos Maior ganho de informação (entropia) nCandidatos: Transporte: Não classifica imediatamente nenhum dos exemplos Sono: Classifica de imediato 6 dos 12 exemplos...

Geber Ramalho 9 Exemplo: atributo transporte Transporte? carrooutros +:E01,E02,E04,E07,E10,E11,E12 - :E03,E05,E06,E08,E09 carona +: E10 -: E05,E06 +: E01,E07,E11 -: E03,E09 +: E02,E04,E12 -: E08

Geber Ramalho 10 Exemplo: atributo sono Sono? sim pouco não +:E01,E02,E04,E07,E10,E11,E12 - :E03,E05,E06,E08,E09 +: E1,E2,E4, E7 -: E6,E8 +: : E3, E5, E9 +: E10,E11,E12 -: - - -

Cálculo do ganho de informação Onde A = atributo p = positivo n = negativo Ganho(A) = I -  v i=1 (p i +n i )/(p i +n i ) I I = -p/(p+n) (log 2 p/(p+n)) - n/(n+p) (log 2 n/(p+n)) p/p+n, n/p+np i /p i +n i, n i /p i +n i p/p+n, n/p+n

Geber Ramalho 12 function APRENDIZAGEM_DA_ID3(exemplos,atributos,default) : árvore de decisão if (exemplos é vazio) then return default; else if (todos os exemplos têm a mesma classificação) then return (a classificação); elseif (atributos é vazio) then return maioria(exexmplos); else melhor <- ESCOLHA_MELHOR_ATRIBUTO(atributos,exemplos); árvore <- nova árvore com raiz “melhor”; para cada valor v i de melhor faça exemplos i <- exemplos onde melhor = v i ; subárvore <- APRENDIZAGEM_DA_ID3(exemplos i, atributos-{melhor}, maioria(exemplos)); adicione subárvore como um ramo à árvore com rótulo v i ; return arvore; ID3: Algoritmo de aprendizagem

Geber Ramalho 13 +: E1,E2,E4, E7 -: E6,E8 Árvore de Decisão “Induzida” +: E1,E2,E4,E7,E10,E11,E12 -: E3, E5, E6, E8, E9 Sono? Não Pouco Sim +: : E3, E5, E9 +: E10,E11,E12 -: Sim.Não. Outros Carro Carona Meio de transporte? +: : E6 +: E1,E7 -: : E2,E4 -: E8 Sim.Não. Quer sair? SimNão +: E2,E4 -: : : E8 Sim.Não.

Geber Ramalho 14 Regras nÉ possível mostrar o resultado como regras lógicas toma-se as folhas com conclusão positiva e sobe-se até a raiz nExemplos:  t Sono(Não,t)  VaiASoparia(t)  t Sono(Pouco,t)  Transporte(Carro,t)  VaiASoparia(t)  t Sono(Pouco,t)  Transporte(Carona,t)  QuerSair(Sim,t)  VaiASoparia(t)

Geber Ramalho 15 Problemas c/ ID3: Expressividade nSó pode tratar de um único objeto  t Sono(Não,t)  VaiASoparia(t)  t Sono(Pouco,t)  Transporte(Carro,t)  VaiASoparia(t) nMais de um... não dá com eficiência Ex: “se posso ficar mais indisposto mais tarde, eu vou logo à soparia”  t 1  t 2 MesmoDia(t 1,t 2 )  Disposição(t 1,d 1 )  Disposição(t 2,d 2 )  Maior (d 1,d 2 )  VaiASoparia(t) alternativa: atributo possoFicarMaisIndisposto(t)

Geber Ramalho 16 Problemas c/ ID3: Expressividade nExemplo: Goal predicate = BomPesquisador (x) nComo tratar atributos multi-valorados? Filiação(José, {USP, Unesp}) nComo tratar atributos numéricos? Tem entre 45 e 52 anos nComo tratar listas ordenandas? Formação = {graduação, mestrado, doutorado, pós} nComo inserir conhecimento a priori? Hierarquias conceituais PE PB ALCE NE BR Norte

Geber Ramalho 17 Problemas gerais: ambigüidade nAmbigüidade: Dois ou mais exemplos com a mesma descrição (em termos de atributos) mas classificações diferentes nCausas: Ruído Atributos insuficientes nSoluções: tratamento estatístico indução construtiva etc.

Geber Ramalho 18 Problemas gerais: overfitting nOverfitting (hiper-especialização): Evitar encontrar uma “regularidade” muito restrita nos dados nSoluções: validação cruzada poda

Geber Ramalho 19 TreinamentoTeste Validação Cruzada nServe para evitar overfitting e para averiguar robustez dos resultados nAlgoritmo 1) Divide o conjunto de exemplos em dois sub- conjuntos: conjuntos de treinamento (TR) e de teste (TE) 2) Usa indução para gerar hipótese H sobre TR 3) Mede percentagem de erro de H aplicada à TE 4) Repete passos 1-3 com diferentes tamanhos de TE e TR, e tendo elemento escolhidos aleatoriamente

Geber Ramalho 20 Curva de aprendizagem

Geber Ramalho 21 Exemplos Práticos nGASOIL Sistema de separação de gás-óleo em plataformas de petróleo Sistema de 10 pessoas-ano se baseado em regras Desenvolvido em 100 pessoas-dia nPiloto automático de um Cessna Treinado por três pilotos Obteve um desempenho melhor que os três nMineração de dados nRecuperação de Informação

Geber Ramalho Aprendendo descrições lógicas Version space

Geber Ramalho 23 Aprendendo descrições lógicas nDado o Predicado objetivo (unário) P, a tarefa é encontrar uma expressão lógica C, equivalente a P, que classifique os exemplos corretamente Hipótese (Hi)  Definição Candidata (Ci)  x P(x)  Ci(x) é uma dedução!!!! nExemplos H r :  r VaiEsperar(r)  Pessoas(r, Algumas)  (Pessoas(r,Cheio)   Fome(r)  Tipo(r,Francês))  (Pessoas(r,Cheio)   Fome(r)  Tipo(r,Tailandês)  Sex/Sab(r)) H S :  t VaiASoparia(t)  Sono(Não,t)  (Sono(Pouco,t)  Transporte(Carona,t)  Conic(Sim,t))

Geber Ramalho 24 Aprendendo descrições lógicas (2/3) nO que é um exemplo (Xi)? objeto em que o predicado objetivo p pode ou não se aplicar nrepresentação exemplo positivo: Di(Xi)  P(Xi) negativo: Di(Xi)   P(Xi) nPor exemplo... Pessoas(X1,Cheio)   Fome(X1)  Tipo(X1,Tailandês)  Sex/Sab(X1)  VaiEsperar(X1)

Geber Ramalho 25 Aprendendo descrições lógicas (3/3) nO que é aprender? Hprocesso de busca por uma boa hipótese Hi no espaço de hipóteses H nIdéia: reduzir conjunto de hipóteses H1  H2 ...  Hn testando a consistência através de inferência (dedução) lógica Direção: top-down (geral  específico) ou bottom-up (específico  geral ) nProblema tamanho do espaço de hipóteses

Geber Ramalho 26 Hipóteses... nExiste um polígono nExiste um polígono hachurado nExistem dois objetos, um sobre o outro nExistem dois objetos & o inferior é um polígono nExistem dois objetos & o inferior está hachurado nExistem dois objetos, dos quais um é um quadrado n.... Exemplo1 +Exemplo 2 +

Geber Ramalho 27 Consistência nUm exemplo pode ser: falso negativo - Se a hipótese diz que deveria ser negativo mas de fato é positivo falso positivo - Se a hipótese diz que deveria ser positivo mas de fato é negativo nPor exemplo... Diante de Hs: –  t Sono(Pouco,t)  Transporte(Carona,t)  vaiASoparia(t) O exemplo E08: –Sono(Pouco,t1)  Transporte(Carona,t1)  Conic(Não,t1)  Alcool(Não,t1)  Sair(Não,t1)  Fome(Sim,t1)   VaiASoparia(t) é um falso positivo

Geber Ramalho 28 Busca no espaço de hipóteses nExistem duas soluções para o problema da complexidade da busca no espaço de hipóteses 1) busca pela melhor hipótese corrente 2) busca de engajamento mínimo

Busca pela melhor hipótese corrente (Current-best-hypothesis Search) nManter uma hipótese única, e ajustá-la quando um novo exemplo chega a fim de manter a consistência: Generalizando e especializando Generali- zação Especiali- zação hipótese inicial Falso negativo Hipótese muito restritiva Falso positivo Hipótese muito permissiva

Geber Ramalho 30 Generalização/especialização n(H1  C1)  (H2  C2) (H1 mais geral que H2)  x C2(x)  C1(x) define indução por meio da dedução para usar o poder da lógica nImportante: generalização/especialização podem ser operações sintáticas variabilizar/instanciar de uma constante/variável –Conic(Sim)  Conic(x) adicionar/retirar condições: conjunções ou disjunções –Conic(Sim)  Fome(Sim)  Fome(Sim) –Conic(Sim)  Fome(Sim)  Fome(Sim)

Geber Ramalho 31 Exemplo do restaurante (aima pag. 534) Alt = alternativo?Bar = tem área de bar?Fri = é sex ou sábado? Hun = fome?Pat = vagas livres?Price = preço? Rain = chove?Res = fez reserva?Est = tempo de espera

Geber Ramalho 32 Exemplos positivos: X1, X3, X4; negativo: X2 nX1: exemplo inicial H1:  x VaiEsperar(x)  Alternativo(x) nX2: falso + H2:  x VaiEsperar(x)  Alternativo(x)  Pessoas(x,Alguma) nX3: falso - H3:  x VaiEsperar(x)  Pessoas(x,Alguma) nX4: falso - H4:  x VaiEsperar(x)  Pessoas(x,Alguma)  ( Pessoas (x,Cheio)  Sex/Sab(x)) nProblema: backtracking

Geber Ramalho 33 Busca de menor engajamento (Least-Commitment Search) nEspaço de hipóteses: H1  H2  H3 ...  Hn nSolução 2: Ao invés de uma hipótese, eliminamos unicamente aquelas inconsistentes com os exemplos até o momento. Assim, cercamos (encurralamos) incrementalmente as hipóteses boas Este conjunto de hipóteses consistentes restantes chama-se Espaço de Versões. nDois conjuntos consistentes de hipóteses G-set  borda mais geral S-set  borda mais específica

Mais Específico Mais Geral Região Inconsistente S 1 S 2 S 3... S n G 1 G 2 G 3... G n consistente

Geber Ramalho 35 Propriedades nToda hipótese consistente é mais específica do que algum membro do G-set e mais geral que algum membro do S-set (ninguém está fora) nToda hipótese mais específica que algum membro do G- set e mais geral que algum membro do S-set é uma hipótese consistente (não há buracos) nComo atualizar G-set e S-set? S-set –falso+ -> fora(não pode mais especializar) –falso- -> generalizar G-set –falso+ -> especializar –falso- -> fora (não pode mais generalizar)

Exemplo (parte 1) [tonho,café,quinta,barato]S-set [?, ?, ?, ?]G-set Ex1+: [tonho,café,quinta,barato] Ex2-: [macro,almoço,quinta,caro]

Exemplo (parte 2) Ex3+: [tonho,almoço,sábado,barato] [tonho,café,quinta,barato] [tonho, ?,?,?] [?,café,?,?] [?,?,?,barato] [?, ?, ?, ?] Ex1+: [tonho,café,quinta,barato] Ex2-: [makro,almoço,quinta,caro]

Exemplo (parte 3) Ex1+: [tonho,café,quinta,barato] Ex2-: [makro,almoço,quinta,caro] Ex3+: [tonho,almoço,sábado,barato] [tonho,café,quinta,barato] [?,?,?,barato] [?, ?, ?, ?] [tonho, ?,?,?] [tonho,?,?,barato] Ex4-: [club,café,domingo,barato]

Exemplo (parte 4) Ex1+: [tonho,café,quinta,barato] Ex2-: [makro,almoço,quinta,caro] Ex3+: [tonho,almoço,sábado,barato] Ex4-: [club,café,domingo,barato] [tonho,café,quinta,barato] [?,?,?,barato][?, ?, ?, ?][tonho, ?,?,?] [tonho,?,?,barato] Ex5-: [tonho,café,domingo,caro]

Geber Ramalho 40 Questões nComo garantir que o algoritmo de aprendizagem pode funcionar bem nos exemplos futuros? nCaso não haja garantia, como saber que ele tem alguma utilidade? nAprender regras tudo bem, mas e se elas não existirem?