A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Geber Ramalho 1 Objetivo da aprendizagem Conhecimento em extensão (exemplos percepção-ação, características-conceitos, etc.) Conhecimento em intenção.

Apresentações semelhantes


Apresentação em tema: "Geber Ramalho 1 Objetivo da aprendizagem Conhecimento em extensão (exemplos percepção-ação, características-conceitos, etc.) Conhecimento em intenção."— Transcrição da apresentação:

1

2 Geber Ramalho 1 Objetivo da aprendizagem Conhecimento em extensão (exemplos percepção-ação, características-conceitos, etc.) Conhecimento em intenção (regras definições.) Exemplos dia 29, a Caxangá estava engarrafada dia 30, a Caxangá estava engarrafada dia 01, a Caxangá estava engarrafada dia 03, a Caxangá estava engarrafada Hipótese indutiva Todo dia, a Caxangá está engarrafada

3 Geber Ramalho 2 Aprendizado indutivo nInferência de uma regra geral (hipótese) a partir de exemplos particulares ex. trânsito na caxangá nPrecisão diretamente proporcional à quantidade de exemplos nÉ uma inferência que “preserva a falsidade” nPode ser incremental: atualiza hipótese a cada novo exemplo –mais flexível, situada... Porém a ordem de apresentação é importante (backtracking) não incremental: gera h a partir de todo conjunto de exemplos –mais eficiente e prática

4 Geber Ramalho 3 2 Abordagens típicas em aprendizagem simbólica nÁrvores de decisão: inductive decision trees (ID3) Lógica de ordem 0+ (atributo/valor) Fáceis de serem implementadas e utilizadas aprendizagem não incremental estatística (admite exceções) nEspaço de versões (Version space) lógica de primeira ordem & resolução implementação mais complicada aprendizagem incremental indução lógica unicamente

5 Geber Ramalho 4 Árvore de Decisão nA partir de um conjunto de propriedades, decide sim ou não nExemplo Soparia (by Carlos Figueira) predicado-objetivo: vaiASoparia Atributos considerados: –Sono: Estou com sono? –Transporte: Tenho como ir de carro? Carona? etc. –CONIC: Devo estar amanhã cedo no CONIC? –Álcool: Estou precisando de álcool? –Sair: Quero sair de casa? –Fome: Estou com fome?

6 Geber Ramalho 5 Árvore de Decisão “pensada” Sono? CONIC? Carro Não. Outros CONIC? Carona Sim Sim. Não Não. Não Quer sair? Sim Não. Sim. Não Meio de transporte? Pouco Sim Não. Sim. Não Precisa de álcool? Sim Sim. Não Não. atributo valores

7 Geber Ramalho 6 ID3: exemplos da soparia nAtributos: (Sono, Transporte, CONIC, Álcool, Sair, Fome)-> propriedade-objetivo E01: (Pouco,Carro,Sim,Sim,Não,Sim) -> Sim! E02: (Pouco,Carona,Não,Não,Sim,Sim) -> Sim! E03: (Sim,Carro,Não,Sim,Sim,Sim) -> Não. E04: (Pouco,Carona,Não,Não,Sim,Não) -> Sim! E05: (Sim,Outros,Sim,Sim,Sim,Não) -> Não. E06: (Pouco,Outros,Não,Sim,Não,Sim) -> Não. E07: (Pouco,Carro,Sim,Não,Sim,Sim) -> Sim! E08: (Pouco,Carona,Não,Não,Não,Sim) -> Não. E09: (Sim,Carro,Não,Sim,Sim,Não) -> Não. E10: (Não,Outros,Sim,Sim,Sim,Sim) -> Sim! E11: (Não,Carro,Não,Sim,Sim,Não) -> Sim! E12: (Não,Carona,Não,Sim,Sim,Sim) -> Sim!

8 Geber Ramalho 7 ID3: conceitos nClassificação aplicação do predicado objetivo p a um exemplo nExemplo positivo (ep) e exemplo negativo (en) p(ep) = verdadeiro, p(en) = falso nConjunto de treinamento positivos + negativos nObjetivo da aprendizagem gerar a descrição d de p segundo os atributos dados d deve ser consistente (cobre todos positivos e exclui todos negativos) e preditiva/geral (vai além da memorização) d deve ser a mais simples possível (navalha de Ockahm)

9 Geber Ramalho 8 ID3: construção da árvore nEscolha do melhor atributo O que discrimina o maior número de exemplos Maior ganho de informação (entropia) nCandidatos: Transporte: Não classifica imediatamente nenhum dos exemplos Sono: Classifica de imediato 6 dos 12 exemplos...

10 Geber Ramalho 9 Exemplo: atributo transporte Transporte? carrooutros +:E01,E02,E04,E07,E10,E11,E12 - :E03,E05,E06,E08,E09 carona +: E10 -: E05,E06 +: E01,E07,E11 -: E03,E09 +: E02,E04,E12 -: E08

11 Geber Ramalho 10 Exemplo: atributo sono Sono? sim pouco não +:E01,E02,E04,E07,E10,E11,E12 - :E03,E05,E06,E08,E09 +: E1,E2,E4, E7 -: E6,E8 +: - - - -: E3, E5, E9 +: E10,E11,E12 -: - - -

12 Cálculo do ganho de informação Onde A = atributo p = positivo n = negativo Ganho(A) = I -  v i=1 (p i +n i )/(p i +n i ) I I = -p/(p+n) (log 2 p/(p+n)) - n/(n+p) (log 2 n/(p+n)) p/p+n, n/p+np i /p i +n i, n i /p i +n i p/p+n, n/p+n

13 Geber Ramalho 12 function APRENDIZAGEM_DA_ID3(exemplos,atributos,default) : árvore de decisão if (exemplos é vazio) then return default; else if (todos os exemplos têm a mesma classificação) then return (a classificação); elseif (atributos é vazio) then return maioria(exexmplos); else melhor <- ESCOLHA_MELHOR_ATRIBUTO(atributos,exemplos); árvore <- nova árvore com raiz “melhor”; para cada valor v i de melhor faça exemplos i <- exemplos onde melhor = v i ; subárvore <- APRENDIZAGEM_DA_ID3(exemplos i, atributos-{melhor}, maioria(exemplos)); adicione subárvore como um ramo à árvore com rótulo v i ; return arvore; ID3: Algoritmo de aprendizagem

14 Geber Ramalho 13 +: E1,E2,E4, E7 -: E6,E8 Árvore de Decisão “Induzida” +: E1,E2,E4,E7,E10,E11,E12 -: E3, E5, E6, E8, E9 Sono? Não Pouco Sim +: - - - -: E3, E5, E9 +: E10,E11,E12 -: - - - Sim.Não. Outros Carro Carona Meio de transporte? +: - - - -: E6 +: E1,E7 -: - - - +: E2,E4 -: E8 Sim.Não. Quer sair? SimNão +: E2,E4 -: - - - +: - - - -: E8 Sim.Não.

15 Geber Ramalho 14 Regras nÉ possível mostrar o resultado como regras lógicas toma-se as folhas com conclusão positiva e sobe-se até a raiz nExemplos:  t Sono(Não,t)  VaiASoparia(t)  t Sono(Pouco,t)  Transporte(Carro,t)  VaiASoparia(t)  t Sono(Pouco,t)  Transporte(Carona,t)  QuerSair(Sim,t)  VaiASoparia(t)

16 Geber Ramalho 15 Problemas c/ ID3: Expressividade nSó pode tratar de um único objeto  t Sono(Não,t)  VaiASoparia(t)  t Sono(Pouco,t)  Transporte(Carro,t)  VaiASoparia(t) nMais de um... não dá com eficiência Ex: “se posso ficar mais indisposto mais tarde, eu vou logo à soparia”  t 1  t 2 MesmoDia(t 1,t 2 )  Disposição(t 1,d 1 )  Disposição(t 2,d 2 )  Maior (d 1,d 2 )  VaiASoparia(t) alternativa: atributo possoFicarMaisIndisposto(t)

17 Geber Ramalho 16 Problemas c/ ID3: Expressividade nExemplo: Goal predicate = BomPesquisador (x) nComo tratar atributos multi-valorados? Filiação(José, {USP, Unesp}) nComo tratar atributos numéricos? Tem entre 45 e 52 anos nComo tratar listas ordenandas? Formação = {graduação, mestrado, doutorado, pós} nComo inserir conhecimento a priori? Hierarquias conceituais PE PB ALCE NE BR Norte

18 Geber Ramalho 17 Problemas gerais: ambigüidade nAmbigüidade: Dois ou mais exemplos com a mesma descrição (em termos de atributos) mas classificações diferentes nCausas: Ruído Atributos insuficientes nSoluções: tratamento estatístico indução construtiva etc.

19 Geber Ramalho 18 Problemas gerais: overfitting nOverfitting (hiper-especialização): Evitar encontrar uma “regularidade” muito restrita nos dados nSoluções: validação cruzada poda

20 Geber Ramalho 19 TreinamentoTeste Validação Cruzada nServe para evitar overfitting e para averiguar robustez dos resultados nAlgoritmo 1) Divide o conjunto de exemplos em dois sub- conjuntos: conjuntos de treinamento (TR) e de teste (TE) 2) Usa indução para gerar hipótese H sobre TR 3) Mede percentagem de erro de H aplicada à TE 4) Repete passos 1-3 com diferentes tamanhos de TE e TR, e tendo elemento escolhidos aleatoriamente

21 Geber Ramalho 20 Curva de aprendizagem

22 Geber Ramalho 21 Exemplos Práticos nGASOIL Sistema de separação de gás-óleo em plataformas de petróleo Sistema de 10 pessoas-ano se baseado em regras Desenvolvido em 100 pessoas-dia nPiloto automático de um Cessna Treinado por três pilotos Obteve um desempenho melhor que os três nMineração de dados nRecuperação de Informação

23 Geber Ramalho Aprendendo descrições lógicas Version space

24 Geber Ramalho 23 Aprendendo descrições lógicas nDado o Predicado objetivo (unário) P, a tarefa é encontrar uma expressão lógica C, equivalente a P, que classifique os exemplos corretamente Hipótese (Hi)  Definição Candidata (Ci)  x P(x)  Ci(x) é uma dedução!!!! nExemplos H r :  r VaiEsperar(r)  Pessoas(r, Algumas)  (Pessoas(r,Cheio)   Fome(r)  Tipo(r,Francês))  (Pessoas(r,Cheio)   Fome(r)  Tipo(r,Tailandês)  Sex/Sab(r)) H S :  t VaiASoparia(t)  Sono(Não,t)  (Sono(Pouco,t)  Transporte(Carona,t)  Conic(Sim,t))

25 Geber Ramalho 24 Aprendendo descrições lógicas (2/3) nO que é um exemplo (Xi)? objeto em que o predicado objetivo p pode ou não se aplicar nrepresentação exemplo positivo: Di(Xi)  P(Xi) negativo: Di(Xi)   P(Xi) nPor exemplo... Pessoas(X1,Cheio)   Fome(X1)  Tipo(X1,Tailandês)  Sex/Sab(X1)  VaiEsperar(X1)

26 Geber Ramalho 25 Aprendendo descrições lógicas (3/3) nO que é aprender? Hprocesso de busca por uma boa hipótese Hi no espaço de hipóteses H nIdéia: reduzir conjunto de hipóteses H1  H2 ...  Hn testando a consistência através de inferência (dedução) lógica Direção: top-down (geral  específico) ou bottom-up (específico  geral ) nProblema tamanho do espaço de hipóteses

27 Geber Ramalho 26 Hipóteses... nExiste um polígono nExiste um polígono hachurado nExistem dois objetos, um sobre o outro nExistem dois objetos & o inferior é um polígono nExistem dois objetos & o inferior está hachurado nExistem dois objetos, dos quais um é um quadrado n.... Exemplo1 +Exemplo 2 +

28 Geber Ramalho 27 Consistência nUm exemplo pode ser: falso negativo - Se a hipótese diz que deveria ser negativo mas de fato é positivo falso positivo - Se a hipótese diz que deveria ser positivo mas de fato é negativo nPor exemplo... Diante de Hs: –  t Sono(Pouco,t)  Transporte(Carona,t)  vaiASoparia(t) O exemplo E08: –Sono(Pouco,t1)  Transporte(Carona,t1)  Conic(Não,t1)  Alcool(Não,t1)  Sair(Não,t1)  Fome(Sim,t1)   VaiASoparia(t) é um falso positivo

29 Geber Ramalho 28 Busca no espaço de hipóteses nExistem duas soluções para o problema da complexidade da busca no espaço de hipóteses 1) busca pela melhor hipótese corrente 2) busca de engajamento mínimo

30 Busca pela melhor hipótese corrente (Current-best-hypothesis Search) nManter uma hipótese única, e ajustá-la quando um novo exemplo chega a fim de manter a consistência: Generalizando e especializando Generali- zação Especiali- zação hipótese inicial Falso negativo Hipótese muito restritiva Falso positivo Hipótese muito permissiva

31 Geber Ramalho 30 Generalização/especialização n(H1  C1)  (H2  C2) (H1 mais geral que H2)  x C2(x)  C1(x) define indução por meio da dedução para usar o poder da lógica nImportante: generalização/especialização podem ser operações sintáticas variabilizar/instanciar de uma constante/variável –Conic(Sim)  Conic(x) adicionar/retirar condições: conjunções ou disjunções –Conic(Sim)  Fome(Sim)  Fome(Sim) –Conic(Sim)  Fome(Sim)  Fome(Sim)

32 Geber Ramalho 31 Exemplo do restaurante (aima pag. 534) Alt = alternativo?Bar = tem área de bar?Fri = é sex ou sábado? Hun = fome?Pat = vagas livres?Price = preço? Rain = chove?Res = fez reserva?Est = tempo de espera

33 Geber Ramalho 32 Exemplos positivos: X1, X3, X4; negativo: X2 nX1: exemplo inicial H1:  x VaiEsperar(x)  Alternativo(x) nX2: falso + H2:  x VaiEsperar(x)  Alternativo(x)  Pessoas(x,Alguma) nX3: falso - H3:  x VaiEsperar(x)  Pessoas(x,Alguma) nX4: falso - H4:  x VaiEsperar(x)  Pessoas(x,Alguma)  ( Pessoas (x,Cheio)  Sex/Sab(x)) nProblema: backtracking

34 Geber Ramalho 33 Busca de menor engajamento (Least-Commitment Search) nEspaço de hipóteses: H1  H2  H3 ...  Hn nSolução 2: Ao invés de uma hipótese, eliminamos unicamente aquelas inconsistentes com os exemplos até o momento. Assim, cercamos (encurralamos) incrementalmente as hipóteses boas Este conjunto de hipóteses consistentes restantes chama-se Espaço de Versões. nDois conjuntos consistentes de hipóteses G-set  borda mais geral S-set  borda mais específica

35 Mais Específico Mais Geral Região Inconsistente S 1 S 2 S 3... S n G 1 G 2 G 3... G n consistente

36 Geber Ramalho 35 Propriedades nToda hipótese consistente é mais específica do que algum membro do G-set e mais geral que algum membro do S-set (ninguém está fora) nToda hipótese mais específica que algum membro do G- set e mais geral que algum membro do S-set é uma hipótese consistente (não há buracos) nComo atualizar G-set e S-set? S-set –falso+ -> fora(não pode mais especializar) –falso- -> generalizar G-set –falso+ -> especializar –falso- -> fora (não pode mais generalizar)

37 Exemplo (parte 1) [tonho,café,quinta,barato]S-set [?, ?, ?, ?]G-set Ex1+: [tonho,café,quinta,barato] Ex2-: [macro,almoço,quinta,caro]

38 Exemplo (parte 2) Ex3+: [tonho,almoço,sábado,barato] [tonho,café,quinta,barato] [tonho, ?,?,?] [?,café,?,?] [?,?,?,barato] [?, ?, ?, ?] Ex1+: [tonho,café,quinta,barato] Ex2-: [makro,almoço,quinta,caro]

39 Exemplo (parte 3) Ex1+: [tonho,café,quinta,barato] Ex2-: [makro,almoço,quinta,caro] Ex3+: [tonho,almoço,sábado,barato] [tonho,café,quinta,barato] [?,?,?,barato] [?, ?, ?, ?] [tonho, ?,?,?] [tonho,?,?,barato] Ex4-: [club,café,domingo,barato]

40 Exemplo (parte 4) Ex1+: [tonho,café,quinta,barato] Ex2-: [makro,almoço,quinta,caro] Ex3+: [tonho,almoço,sábado,barato] Ex4-: [club,café,domingo,barato] [tonho,café,quinta,barato] [?,?,?,barato][?, ?, ?, ?][tonho, ?,?,?] [tonho,?,?,barato] Ex5-: [tonho,café,domingo,caro]

41 Geber Ramalho 40 Questões nComo garantir que o algoritmo de aprendizagem pode funcionar bem nos exemplos futuros? nCaso não haja garantia, como saber que ele tem alguma utilidade? nAprender regras tudo bem, mas e se elas não existirem?


Carregar ppt "Geber Ramalho 1 Objetivo da aprendizagem Conhecimento em extensão (exemplos percepção-ação, características-conceitos, etc.) Conhecimento em intenção."

Apresentações semelhantes


Anúncios Google