A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

CIn- UFPE Aprendizagem Simbólica Geber Ramalho Jacques Robin Francisco Carvalho CIn-UFPE.

Apresentações semelhantes


Apresentação em tema: "CIn- UFPE Aprendizagem Simbólica Geber Ramalho Jacques Robin Francisco Carvalho CIn-UFPE."— Transcrição da apresentação:

1 CIn- UFPE Aprendizagem Simbólica Geber Ramalho Jacques Robin Francisco Carvalho CIn-UFPE

2 2 Construção de bases de conhecimento (baseadas em regras) nCríticas Aquisição de conhecimento muito difícil (problema central!!!) Desenvolvimento longo e manutenção delicada (conseqüência) Sistema não se adapta Não é robusto e tem tratamento de incerteza complicado nSoluções Robustez e incerteza: Sistemas fuzzy, probabilísticos,... Aquisição, tempo de desenvolvimento e adaptabilidade: Aprendizagem de máquina

3 CIn- UFPE 3 Aprendizagem de máquina: exemplos nPrever classes de futuros pacientes de alto risco que devem fazer cesareana nAnálise de risco de crédito: prever clientes não solventes nPrever comportamento de compra de clientes nRecomendar filmes para clientes netc.

4 CIn- UFPE 4 Aprendizagem de máquina: a natureza dos exemplos Conhecimento em extensão (exemplos percepção-ação, características-conceitos, etc.) Conhecimento em intenção (regras definições.) Exemplos dia 29, a Caxangá estava engarrafada dia 30, a Caxangá estava engarrafada dia 01, a Caxangá estava engarrafada dia 03, a Caxangá estava engarrafada Hipótese indutiva Todo dia, a Caxangá está engarrafada

5 CIn- UFPE 5 Aprendizado indutivo nInferência de uma regra geral (hipótese) a partir de exemplos particulares ex. trânsito na caxangá nPrecisão diretamente proporcional à quantidade de exemplos nÉ uma inferência que preserva a falsidade só é verdade até aquele momento!

6 CIn- UFPE 6 Aprendizagem nAtividade de uma agente = função f (percepção) ação nidéia: aprender, a partir de exemplos (x,f(x)), representação de uma função h que aproxima f nMétodos simbólico: indução não simbólico: redes neurais, algo. genéticos, etc.

7 CIn- UFPE 7 Questões: on-line x off-line nAprender de uma vez ou aos poucos? Incremental (on-line): atualiza hipótese a cada novo exemplo –mais flexível, situada... porém –ordem de apresentação é importante (backtracking) –é difícil revisar as crenças não incremental (off-line): gera h a partir de todo conjunto de exemplos –mais eficiente e prática –mais usado!

8 CIn- UFPE 8 Modelo do Agente Aprendiz (on-line) t sensores efetuadores Agente Gerador de problemas crítico elemento de aprendizagem avaliação objetivos de aprendizagem elemento ator trocas conhecimento a m b i e n t e t + 1

9 CIn- UFPE 9 Modelo do Agente Aprendiz (off-line) Algoritmo de Aprendizagem elemento ator exemplos conhecimento sensores efetuadores a m b i e n t e Treinamento Uso

10 CIn- UFPE 10 Questões... nO que aprender? Aumentar/refinar conhecimento do agente –propriedades relevantes do mundo –como o mundo evolui –resultados das ações –adequação de ações num dado contexto –... Aumentar eficiência do agente (não precisa mais refletir) –não gera conhecimento novo, propriamente dito nComo representar o que aprender? eficiência x expressividade –ex. lógica de atributo valor (0+) x lógica de predicados (1)

11 CIn- UFPE 11 Questões nQual é o feedback disponível? Aprendizagem supervisionada: certo ou errado –Dado um conjunto de exemplos pré-classificados, aprender uma descrição geral que encapsula a informação contida nesses exemplos e que pode ser usada para prever casos futuros –ex. concessão de crédito Aprendizagem não-supervisionada: ? –Dada uma coleção de dados não classificados, agrupá-los por regularidades –ex. caixa de supermercado empacotando Aprendizagem por reforço: recompensa/punição –ex. jogo de xadrez: é por aí!

12 CIn- UFPE 12 Questões nPreguiçosa x Gulosa Gulosa: gera conhecimento em intenção –custa mais na hora de gerar e de atualizar –mas é barata na hora de usar (identificar) preguiçosa: usa conhecimento em extensão –custa mais na hora de usar mas é barata na hora de gerar (nem gera na verdade!) nQual é o conhecimento prévio disponível? Em geral existe e é importante –ex. artista e médico chegam a conclusões diferentes para as mesmas observações IA simbólica captura melhor este conhecimento influi também na descrição dos exemplos –ex. CNCT: Paraíba, Pernambuco, Ceará -> NE

13 Resumo: Aprendizagem indutiva Objetos (dados) clustering (ap. não-supervisionada) Redes neurais, agrupamento conceitual, estatística, Preguiçosa Knn, LWR, CBR, novo algoritmo classe 1,2 ou 3 K em extensão Identificação outro objeto classificador classe 1,2 ou 3 Indução - geração de um classificador ap. supervisionada (árvore de decisão, conjunto de regras, redes neurais c/ pesos ajustados,...) ID3, version space, redes neurais, naive bayes,... K em intenção

14 CIn- UFPE 14 2 Abordagens típicas em aprendizagem simbólica nÁrvores de decisão: inductive decision trees (ID3) Lógica de ordem 0+ (atributo/valor) Fáceis de serem implementadas e utilizadas aprendizagem não incremental estatística (admite exceções) nEspaço de versões (Version space) lógica de primeira ordem & resolução implementação mais complicada aprendizagem incremental indução lógica unicamente

15 CIn- UFPE 15 Árvore de Decisão nA partir de um conjunto de propriedades, decide sim ou não nRepresentação de árvores de decisão Cada nó interno testa um atributo Cada ramo corresponde a um valor do atributo Cada folha atribui uma classificação

16 CIn- UFPE 16 Árvore de Decisão nExemplo Soparia (by Carlos Figueira) predicado-objetivo: vaiASoparia Atributos considerados: –Sono: Estou com sono? –Transporte: Tenho como ir de carro? Carona? etc. –CONIC: Devo estar amanhã cedo no CONIC? –Álcool: Estou precisando de álcool? –Sair: Quero sair de casa? –Fome: Estou com fome?

17 CIn- UFPE 17 Árvore de Decisão pensada Sono? CONIC? Carro Não. Outros CONIC? Carona Sim Sim. Não Não. Não Quer sair? Sim Não. Sim. Não Meio de transporte? Pouco Sim Não. Sim. Não Precisa de álcool? Sim Sim. Não Não. atributo valores

18 CIn- UFPE 18 ID3: exemplos da soparia nAtributos: (Sono, Transporte, CONIC, Álcool, Sair, Fome)-> propriedade-objetivo E01: (Pouco,Carro,Sim,Sim,Não,Sim) -> Sim! E02: (Pouco,Carona,Não,Não,Sim,Sim) -> Sim! E03: (Sim,Carro,Não,Sim,Sim,Sim) -> Não. E04: (Pouco,Carona,Não,Não,Sim,Não) -> Sim! E05: (Sim,Outros,Sim,Sim,Sim,Não) -> Não. E06: (Pouco,Outros,Não,Sim,Não,Sim) -> Não. E07: (Pouco,Carro,Sim,Não,Sim,Sim) -> Sim! E08: (Pouco,Carona,Não,Não,Não,Sim) -> Não. E09: (Sim,Carro,Não,Sim,Sim,Não) -> Não. E10: (Não,Outros,Sim,Sim,Sim,Sim) -> Sim! E11: (Não,Carro,Não,Sim,Sim,Não) -> Sim! E12: (Não,Carona,Não,Sim,Sim,Sim) -> Sim!

19 CIn- UFPE 19 ID3: conceitos nClassificação aplicação do predicado objetivo p a um exemplo nExemplo positivo (ep) e exemplo negativo (en) p(ep) = verdadeiro, p(en) = falso nConjunto de treinamento positivos + negativos nObjetivo da aprendizagem gerar a descrição d de p segundo os atributos dados d deve ser consistente (cobre todos positivos e exclui todos negativos) e preditiva/geral (vai além da memorização) d deve ser a mais simples possível (navalha de Ockahm)

20 CIn- UFPE 20 Indução top-down de árvores de decisão nLoop principal: 1. A o melhor atributo de decisão para o próximo nó 2. Atribua A como atributo de decisão para nó 3. Para cada valor de A, crie um novo descendente para nó 4. Classifique os exemplos de treinamento nos nós folha 5. Se os exemplos de treinamento estão classificados perfeitamente, então PARE, senão comece novamente a partir dos novos nós folha

21 CIn- UFPE 21 function APRENDIZAGEM_ID3(exemplos,atributos,default) : árvore de decisão if (exemplos é vazio) then return default; else if (todos os exemplos têm a mesma classificação) then return (a classificação); elseif (atributos é vazio) then return maioria(exexmplos); else melhor <- ESCOLHA_MELHOR_ATRIBUTO(atributos,exemplos); árvore <- nova árvore com raiz melhor; para cada valor v i de melhor faça exemplos i <- exemplos onde melhor = v i ; subárvore <- APRENDIZAGEM_DA_ID3(exemplos i, atributos-{melhor}, maioria(exemplos)); adicione subárvore como um ramo à árvore com rótulo v i ; return arvore; Indução top-down de árvores de decisão (detalhe)

22 CIn- UFPE 22 Indução top-down de árvores de decisão nEscolha do melhor atributo O que discrimina o maior número de exemplos Maior ganho de informação (minimiza a entropia) nCandidatos: Transporte: Não classifica imediatamente nenhum dos exemplos Sono: Classifica de imediato 6 dos 12 exemplos...

23 CIn- UFPE 23 Exemplo: atributo transporte Transporte? carrooutros +:E01,E02,E04,E07,E10,E11,E12 - :E03,E05,E06,E08,E09 carona +: E10 -: E05,E06 +: E01,E07,E11 -: E03,E09 +: E02,E04,E12 -: E08

24 CIn- UFPE 24 Exemplo: atributo sono Sono? sim pouco não +:E01,E02,E04,E07,E10,E11,E12 - :E03,E05,E06,E08,E09 +: E1,E2,E4, E7 -: E6,E8 +: : E3, E5, E9 +: E10,E11,E12 -: - - -

25 CIn- UFPE 25 Entropia nS é uma amostra dos exemplos de treinamento np é a proporção de exemplos positivos em S np é a proporção de exemplos negativos em S nEntropia mede a impureza de S: Entropia(S)=- p log2 p - p log2 p

26 CIn- UFPE 26 Entropia - Exemplo nSuponha que S é uma coleção de 14 exemplos, incluindo 9 positivos e 5 negativos Notação: [9+,5-] nA entropia de S em relação a esta classificação booleana é dada por:

27 Cálculo do ganho de informação nGain(S,A)=redução esperada da entropia devido a classificação de acordo com A

28 CIn- UFPE 28 +: E1,E2,E4, E7 -: E6,E8 Árvore de Decisão Induzida +: E1,E2,E4,E7,E10,E11,E12 -: E3, E5, E6, E8, E9 Sono? Não Pouco Sim +: : E3, E5, E9 +: E10,E11,E12 -: Sim.Não. Outros Carro Carona Meio de transporte? +: : E6 +: E1,E7 -: : E2,E4 -: E8 Sim.Não. Quer sair? SimNão +: E2,E4 -: : : E8 Sim.Não.

29 CIn- UFPE 29 Regras nÉ possível mostrar o resultado como regras lógicas toma-se as folhas com conclusão positiva e sobe-se até a raiz nExemplos: t Sono(Não,t) VaiASoparia(t) t Sono(Pouco,t) Transporte(Carro,t) VaiASoparia(t) t Sono(Pouco,t) Transporte(Carona,t) QuerSair(Sim,t) VaiASoparia(t)

30 CIn- UFPE 30 Problemas c/ ID3: Expressividade nSó pode tratar de um único objeto t Sono(Não,t) VaiASoparia(t) t Sono(Pouco,t) Transporte(Carro,t) VaiASoparia(t) nMais de um... não dá com eficiência Ex: se posso ficar mais indisposto mais tarde, eu vou logo à soparia t 1 t 2 MesmoDia(t 1,t 2 ) Disposição(t 1,d 1 ) Disposição(t 2,d 2 ) Maior (d 1,d 2 ) VaiASoparia(t) alternativa: atributo possoFicarMaisIndisposto(t)

31 CIn- UFPE 31 Problemas c/ ID3: Expressividade nExemplo: Goal predicate = BomPesquisador (x) nComo tratar atributos multi-valorados? Filiação(José, {USP, Unesp}) nComo tratar atributos numéricos? Tem entre 45 e 52 anos nComo tratar listas ordenandas? Formação = {graduação, mestrado, doutorado} nComo inserir conhecimento a priori? Hierarquias conceituais PE PB ALCE NE BR Norte

32 CIn- UFPE 32 Problemas gerais: ambigüidade nAmbigüidade: Dois ou mais exemplos com a mesma descrição (em termos de atributos) mas classificações diferentes nCausas: Ruído Atributos insuficientes nSoluções: tratamento estatístico indução construtiva etc.

33 CIn- UFPE 33 Problemas gerais: overfitting nOverfitting (hiper-especialização): Evitar encontrar uma regularidade muito restrita nos dados nSoluções: validação cruzada poda

34 CIn- UFPE 34 TreinamentoTeste Validação Cruzada nServe para evitar overfitting e para averiguar robustez dos resultados nAlgoritmo 1) Divide o conjunto de exemplos em dois sub- conjuntos: conjuntos de treinamento (TR) e de teste (TE) 2) Usa indução para gerar hipótese H sobre TR 3) Mede percentagem de erro de H aplicada à TE 4) Repete passos 1-3 com diferentes tamanhos de TE e TR, e tendo elemento escolhidos aleatoriamente

35 CIn- UFPE 35 Curva de aprendizagem

36 CIn- UFPE 36 Quando usar árvores de decisão? nInstâncias (exemplos) são representadas por pares atributo-valor nFunção objetivo assume apenas valores discretos nHipóteses disjuntivas podem ser necessárias nConjunto de treinamento possivelmente corrompido por ruído

37 CIn- UFPE 37 Exemplos Práticos nExemplos correntes Diagnóstico médico e de equipamentos Análise de crédito Recuperação de Informação etc. nFunciona mesmo GASOIL –Sistema de separação de gás-óleo em plataformas de petróleo –Sistema de 10 pessoas-ano se baseado em regras –Desenvolvido em 100 pessoas-dia Piloto automático de um Cessna –Treinado por três pilotos –Obteve um desempenho melhor que os três

38 CIn- UFPE Aprendendo descrições lógicas Version space

39 CIn- UFPE 39 Aprendendo descrições lógicas nDado o Predicado objetivo (unário) P, a tarefa é encontrar uma expressão lógica C, equivalente a P, que classifique os exemplos corretamente Hipótese (Hi) Definição Candidata (Ci) x P(x) Ci(x) é uma dedução!!!! nExemplos H r : r VaiEsperar(r) Pessoas(r, Algumas) (Pessoas(r,Cheio) Fome(r) Tipo(r,Francês)) (Pessoas(r,Cheio) Fome(r) Tipo(r,Tailandês) Sex/Sab(r)) H S : t VaiASoparia(t) Sono(Não,t) (Sono(Pouco,t) Transporte(Carona,t) Conic(Sim,t))

40 CIn- UFPE 40 Aprendendo descrições lógicas (2/3) nO que é um exemplo (Xi)? objeto em que o predicado objetivo p pode ou não se aplicar nrepresentação exemplo positivo: Di(Xi) P(Xi) negativo: Di(Xi) P(Xi) nPor exemplo... Pessoas(X1,Cheio) Fome(X1) Tipo(X1,Tailandês) Sex/Sab(X1) VaiEsperar(X1)

41 CIn- UFPE 41 Aprendendo descrições lógicas (3/3) nO que é aprender? Hprocesso de busca por uma boa hipótese Hi no espaço de hipóteses H nIdéia: reduzir conjunto de hipóteses H1 H2... Hn testando a consistência através de inferência (dedução) lógica Direção: top-down (geral específico) ou bottom-up (específico geral ) nProblema tamanho do espaço de hipóteses

42 CIn- UFPE 42 Hipóteses... nExiste um polígono nExiste um polígono hachurado nExistem dois objetos, um sobre o outro nExistem dois objetos & o inferior é um polígono nExistem dois objetos & o inferior está hachurado nExistem dois objetos, dos quais um é um quadrado n.... Exemplo1 +Exemplo 2 +

43 CIn- UFPE 43 Consistência nUm exemplo pode ser: falso negativo - Se a hipótese diz que deveria ser negativo mas de fato é positivo falso positivo - Se a hipótese diz que deveria ser positivo mas de fato é negativo nPor exemplo... Diante de Hs: – t Sono(Pouco,t) Transporte(Carona,t) vaiASoparia(t) O exemplo E08: –Sono(Pouco,t1) Transporte(Carona,t1) Conic(Não,t1) Alcool(Não,t1) Sair(Não,t1) Fome(Sim,t1) VaiASoparia(t) é um falso positivo

44 CIn- UFPE 44 Busca no espaço de hipóteses nExistem duas soluções para o problema da complexidade da busca no espaço de hipóteses 1) busca pela melhor hipótese corrente 2) busca de engajamento mínimo

45 Busca pela melhor hipótese corrente (Current-best-hypothesis Search) nManter uma hipótese única, e ajustá-la quando um novo exemplo chega a fim de manter a consistência: Generalizando e especializando Generali- zação Especiali- zação hipótese inicial Falso negativo Hipótese muito restritiva Falso positivo Hipótese muito permissiva

46 CIn- UFPE 46 Generalização/especialização n(H1 C1) (H2 C2) (H1 mais geral que H2) x C2(x) C1(x) define indução por meio da dedução para usar o poder da lógica nImportante: generalização/especialização podem ser operações sintáticas variabilizar/instanciar de uma constante/variável –Conic(Sim) Conic(x) adicionar/retirar condições: conjunções ou disjunções –Conic(Sim) Fome(Sim) Fome(Sim)

47 CIn- UFPE 47 Exemplo do restaurante (aima pag. 534) Alt = alternativo?Bar = tem área de bar?Fri = é sex ou sábado? Hun = fome?Pat = vagas livres?Price = preço? Rain = chove?Res = fez reserva?Est = tempo de espera

48 CIn- UFPE 48 Exemplos positivos: X1, X3, X4; negativo: X2 nX1: exemplo inicial H1: x VaiEsperar(x) Alternativo(x) nX2: falso + H2: x VaiEsperar(x) Alternativo(x) Pessoas(x,Algumas) nX3: falso - H3: x VaiEsperar(x) Pessoas(x,Algumas) nX4: falso - H4: x VaiEsperar(x) Pessoas(x,Algumas) ( Pessoas (x,Cheio) Sex/Sab(x)) nProblema: backtracking

49 CIn- UFPE 49 Busca de menor engajamento (Least-Commitment Search) nEspaço de hipóteses: H1 H2 H3... Hn nSolução 2: Ao invés de uma hipótese, eliminamos unicamente aquelas inconsistentes com os exemplos até o momento. Assim, cercamos (encurralamos) incrementalmente as hipóteses boas Este conjunto de hipóteses consistentes restantes chama-se Espaço de Versões. nDois conjuntos consistentes de hipóteses G-set borda mais geral S-set borda mais específica

50 Mais Específico Mais Geral Região Inconsistente S 1 S 2 S 3... S n G 1 G 2 G 3... G n consistente

51 CIn- UFPE 51 Propriedades nToda hipótese consistente é mais específica do que algum membro do G-set e mais geral que algum membro do S-set (ninguém está fora) nToda hipótese mais específica que algum membro do G- set e mais geral que algum membro do S-set é uma hipótese consistente (não há buracos) nComo atualizar G-set e S-set? S-set –falso+ -> fora(não pode mais especializar) –falso- -> generalizar G-set –falso+ -> especializar –falso- -> fora (não pode mais generalizar)

52 Exemplo (parte 1) [tonho,café,quinta,barato]S-set [?, ?, ?, ?]G-set Ex1+: [tonho,café,quinta,barato] Ex2-: [macro,almoço,quinta,caro]

53 Exemplo (parte 2) Ex3+: [tonho,almoço,sábado,barato] [tonho,café,quinta,barato] [tonho, ?,?,?] [?,café,?,?] [?,?,?,barato] [?, ?, ?, ?] Ex1+: [tonho,café,quinta,barato] Ex2-: [makro,almoço,quinta,caro]

54 Exemplo (parte 3) Ex1+: [tonho,café,quinta,barato] Ex2-: [makro,almoço,quinta,caro] Ex3+: [tonho,almoço,sábado,barato] [tonho,café,quinta,barato] [?,?,?,barato] [?, ?, ?, ?] [tonho, ?,?,?] [tonho,?,?,barato] Ex4-: [club,café,domingo,barato]

55 Exemplo (parte 4) Ex1+: [tonho,café,quinta,barato] Ex2-: [makro,almoço,quinta,caro] Ex3+: [tonho,almoço,sábado,barato] Ex4-: [club,café,domingo,barato] [tonho,café,quinta,barato] [?,?,?,barato][?, ?, ?, ?][tonho, ?,?,?] [tonho,?,?,barato] Ex5-: [tonho,café,domingo,caro]

56 CIn- UFPE 56 Reflexões... nMesmo com aprendizagem ainda existe um bom trabalho do engenheiro de conhecimento escolher da descrição dos objetos (exemplos) –representação e conteúdo escolha dos exemplos escolha do algoritmo de aprendizagem parametrização do algoritmo de aprendizagem avaliação dos resultados

57 CIn- UFPE 57 Bibliografia adicional nTom Mitchell Generalization as search (paper) Machine Learning (Livro)


Carregar ppt "CIn- UFPE Aprendizagem Simbólica Geber Ramalho Jacques Robin Francisco Carvalho CIn-UFPE."

Apresentações semelhantes


Anúncios Google