A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Agentes Baseados em Conhecimento Jacques Robin Geber Ramalho CIn-UFPE.

Apresentações semelhantes


Apresentação em tema: "Agentes Baseados em Conhecimento Jacques Robin Geber Ramalho CIn-UFPE."— Transcrição da apresentação:

1 Agentes Baseados em Conhecimento Jacques Robin Geber Ramalho CIn-UFPE

2 Exemplo introdutório: West é criminoso?  West é criminoso ou não?  “A lei americana diz que é proibido vender armas a uma nação hostil. Cuba possui alguns mísseis, e todos eles foram vendidos pelo Capitão West, que é americano”  Como resolver automaticamente este problema de classificação?  Segundo a IA (simbólica), é preciso:  Identificar o conhecimento do domínio (modelo do problema)  Representá-lo utilizando uma linguagem formal de representação  Implementar um mecanismo de inferência para utilizar esse conhecimento

3 Agente baseado em conhecimento Ask Tell Retract Ambiente Sensores Atuadores Base de Conhecimento Especializada Máquina de Inferência Genérica Representação e Aquisição de Conhecimento Raciocínio Automático

4 O que é conhecimento?  Dado, informação ou abstração formatado de maneira a permitir raciocínio por um ser humano ou por uma máquina, por exemplo  Classes e objetos  Formula da lógica  Distribuição de probabilidade prévia e condicional de variáveis aleatórias  O que é raciocínio?  Mecanismo sistemático para inferir ou derivar novo conhecimento a partir de novas percepções e/ou de conhecimento prévio, por exemplo:  Herança de atributos entre classe, sub-classes e objetos  Prova de teorema por refutação, resolução e unificação  Cálculo de probabilidade posterior de um evento pelo Teorema de Bayes

5 Exemplo de raciocínio automático com conhecimento: West é criminoso?  Sabendo que: 1. É criminoso para um americano vender armas para uma nação hostil aos EUA 2. Nono tem mísseis 3. Nono comprou todos seus mísseis do Capitão West 4. O Capitão West é americano 5. Nono é uma nação 6. Nono “está” inimiga dos EUA 7. Um míssil é um tipo de arma 8. A inimizade é uma forma de hostilidade 9. Os EUA são uma nação  Pode se inferir que: 0. O Capitão West é criminoso?  Representando esse conhecimento em lógica dos predicados da 1 a ordem (  P,W,N american(P)  weapon(W)  nation(N)  hostile(N)  sells(P,N,W)  criminal(P)) //1  (  W owns(nono,W)  missile(W)) //2  (  W owns(nono,W)  missile(W)  sells(west,nono,W)) //3  american(west) //4  nation(nono) //5  enemy(nono,america) //6   W missile(W)  weapon(W) //7   N enemy(N,america)  hostile(N) //8  nation(america) //9  Provador de teorema pode ser usado para tentar inferir: criminoso(west) //0

6 Revisão de lógica  Refutação:  Para provar BC  C verdadeiro, provar BC   C falso  Porque? Por que  (BC  C)   (  BC  C)  (  BC   C)  BC   C  Formal normal (implicativa):  Para qualquer formula da lógica dos predicados da 1 a ordem, existe uma formula com mesmas valores de verdades da forma:  X 1,..., X k P1(...,Xi,...) ...  Pm(...,Xj,...)  C1(...,Xu,...) ...  Cm(...,Xv,...)  Skolemização:  substituir variáveis existencialmente quantificadas por constantes  ex,  x míssil(x) por míssil(m1)  Regra de resolução (implicativa):  Caso proposicional: ((A  B)  (B  C))  (A  C) A  B e B  C se resolvam em A  C  Caso da 1 a ordem: (A  B)  (C  D)   (B) =  (C)  (  (A)   (D)) onde  é o conjunto de substituições de variáveis que unificam B com C A  B e C  D se resolvam em  (A)   (D) pela unificação de B com C via   Unificação:  conjunto de substituições variável/constante ou variável1/variável2 em 2 termos a unificar para torná-los iguais

7 Exemplo de raciocínio automático com conhecimento: West é criminoso?  Prova por refutação: mostrar que (  P,W,N american(P)  weapon(W)  nation(N)  hostile(N)  sells(P,N,W)  criminal(P)) //1  (  W owns(nono,W)  missile(W)) //2  (  W owns(nono,W)  missile(W)  sells(west,nono,W)) //3  american(west) //4  nation(nono) //5  enemy(nono,america) //6   W missile(W)  weapon(W) //7   N enemy(N,america)  hostile(N) //8  nation(america) //9   criminoso(west) //0 é inconsistente.  1 o passo: colocar formula em forma normal (american(P)  weapon(W)  nation(N)  hostile(N)  sells(P,N,W)  criminal(P)) // 1  T  owns(nono,m1) // skolemização 2a  T  missile(m1) // 2b  (owns(nono,W)  missile(W)  sells(west,nono,W)) //3  T  american(west) //4  T  nation(nono) //5  T  enemy(nono,america) //6  missile(W)  weapon(W) //7  enemy(N,america)  hostile(N) //8  T  nation(america) //9  criminoso(west)  F //0

8 Exemplo de raciocínio automático com conhecimento: West é criminoso?  2 o passo: aplicar regra de resolução a pares de clausulas tal que premissa de uma se unifica com conclusão da outra (american(P)  weapon(W)  nation(N)  hostile(N)  sells(P,N,W)  criminal(P)) //1  (T  owns(nono,m1)) //2a  (T  missile(m1)) //2b  (owns(nono,W)  missile(W)  sells(west,nono,W)) //3  (T  american(west)) //4  (T  nation(nono)) //5  (T  enemy(nono,america)) //6  (missile(W)  weapon(W)) //7  (enemy(N,america)  hostile(N)) //8  (T  nation(america)) //9  (criminoso(west)  F) //0 1.Resolver 0 com 1 unificando P/west: american(west)  weapon(W)  nation(N)  hostile(N)  sells(west,N,W)  F //10 2. Resolver 10 com 4: weapon(W)  nation(N)  hostile(N)  sells(west,N,W)  F //11 3. Resolver 11 com 7: missile(W)  nation(N)  hostile(N)  sells(west,N,W)  F //12 4. Resolver 12 com 2b unificando W/m1: nation(N)  hostile(N)  sells(west,N,m1)  F //13 5. Resolver 13 com 5 unificando N/nono: hostile(nono)  sells(west,nono,m1)  F //14 6. Resolver 14 com 8 unificando N/nono: enemy(nono,america)  sells(west,nono,m1)  F //15 7. Resolver 15 com 6: sells(west,nono,m1)  F //16 8. Resolver 16 com 3 unificando W/m1: owns(nono,m1)  missile(m1)  F //17 9. Resolver 17 com 2a: missile(m1)  F // Resolver 18 com 2b: F

9 Tipos de conhecimento  Intencional x Extensional  Diagnóstico x Causal  Dedutivo x Terminológico  Síncrono x Diácrono  Certo x Incerto  Explicito x Implícito  Preciso x Vago  Declarativo x Procedimental  De senso comum x Especialista  Do problema x Meta-conhecimento (controle, explicação, reuso)

10 Conhecimento intencional x extensional Conhecimento em intenção:  Conhecimento em intenção:  Geral ao domínio de aplicação e classe de problema  Hierarquia de conceitos (classes de fatos)  ex,  X, wumpus(X)  monstro(X).  Restrições de integridades  ex,  X,Y wumpus(X)  wumpus(Y)  X = Y.  Regras de funcionamento do domínio  ex,  X,Y smelly(X,Y)  (loc(wumpus,X+1,Y)  loc(wumpus,X-1,Y)  loc(wumpus,X,Y+1)  loc(wumpus,X,Y-1).  Esquema de BD, classes de programação orientada a objetos Conhecimento em extensão:  Conhecimento em extensão:  Particular da instância do problema a resolver  Fatos, i.e., proposições sobre instâncias de conceitos    ex, loc(wumpus,2,1)  loc(wumpus,1,2)  loc(wumpus,2,3) alive(wumpus,4).  alive(wumpus,7).  Dados, exemplos, casos, objetos

11 Conhecimento terminológico x dedutivo  Conhecimento terminológico:  Taxonomia de entidades do domínio e seus relacionamentos estáticos  Aspectos estruturais e estacionários  ex,  M, wumpus(M)  monster(M).  M,T monster(M)  alive(M,T)  dangerous(M,T).  Conhecimento dedutivo:  Regras de funcionamento e restrições de integridade do domínio  Aspectos comportamentais e temporais  Ligando elementos em várias regiões da taxonomia  ex,  M,X,Y,T dangerous(M,T)  loc(M,X,Y,T)   safe(X,Y,T).  X,Y,T loc(agent,X,Y,T)  orientation(0,T)  forward(T)   loc(wall,X,Y+1)  loc(agent,X,Y+1,T+1).

12 Conhecimento causal x diagnóstico  Conhecimento causal:  prevê resultados de ações e eventos  ex,  X,Y,T loc(agent,X,Y,T)  orientation(0,T)  forward(T)   loc(wall,X,Y+1)  loc(agent,X,Y+1,T+1).  Conhecimento diagnóstico:  forma hipóteses sobre causas de efeitos observados  ex,  X,Y,T smell(stench,X,Y,T)  smelly(X,Y).  X,Y smelly(X,Y)  (loc(wumpus,X+1,Y)  loc(wumpus,X-1,Y)  loc(wumpus,X,Y+1)  loc(wumpus,X,Y-1)).

13 Conhecimento sincrónico x diacrónico  Conhecimento diacrónico:  Regras de previsão das propriedades do ambiente entre dois instantes T e T+1 devidas a ações ou eventos  ex,  X,Y,T loc(agent,X,Y,T)  orientation(0,T)  forward(T)   loc(wall,X,Y+1)  loc(agent,X,Y+1,T+1).  Conhecimento sincrónico:  Regras de propagação das conseqüências não observáveis do ambiente a partir das observadas no mesmo instante T  ex,  M,X,Y,T dangerous(M,T)  loc(M,X,Y,T)   safe(X,Y,T).

14 Conhecimento certo x incerto  Conhecimento certo:  Epistemologicamente booleano  ex,  X,Y smelly(X,Y)   smelly(X+1,Y-1)   smelly(X-1,Y-1)  loc(wumpus,X,Y+1).  Conhecimento incerto:  Epistemologicamente probabilista:  ex,  X,Y smelly(X,Y,1)  (loc(wumpus,X+1,Y,0.25)  loc(wumpus,X-1,Y,0.25)  loc(wumpus,X,Y+1,0.25)  loc(wumpus,X,Y-1,0.25)).

15 Conhecimento explícito x implícito  Conhecimento explícito:  Sentenças simbólicas explicitamente armazenadas na base de conhecimento  Conhecimento implícito:  Axiomas que devem ser verificados para que a base de conhecimento reflete o ambiente modelado  Idealmente documentadas, no entanto muitas vezes presentes apenas na cabeça do engenheiro do conhecimento  Suposições permitindo codificação mais simples e concisa da base de conhecimento  Explicitar conhecimento implícito necessário para tornar BC facilmente extensível

16 Conhecimento explícito x implícito: exemplo de explicitação de conhecimento  A codificação see(glitter)  pick.  Deixa implícito que:  Existe um único agente no ambiente  See é uma percepção  Pick é uma ação  A visão do agente é limitada a caverna no qual se encontra  O ouro é o único objeto a brilhar e o único objeto que o agente pode pegar

17 Conhecimento explícito x implícito: exemplo de explicitação de conhecimento  Quando essas suposições não são mais verificadas, a codificação tem que tornar-se mais explícita, ex:   A,C,T,X,Y agent(A)  loc(C,[(X,Y)])  time(T)  in(A,C,T)  horizCoord(X)  verticCoord(Y)  percept(A,C,T,vision,glitter)   O physObj(O)  emit(O,glitter)  in(O,C,T).   O physObj(O)  emit(O,glitter)  ouro(O).   O ouro(O)  treasure(O).   A,C,T,X,Y,O agent(A)  loc(C,[(X,Y)])  time(T)  in(A,C,T)  horizCoord(X)  verticCoord(Y)  in(O,C,T)  treasure(O)  chooseAction(A,T+1,pick(O)).

18 Tipos de raciocínio  Dedução:  Utilização de conhecimento completo  Previsão com conhecimento causal  Diagnóstico com conhecimento diagnóstico  Abdução:  Utilização de conhecimento incompleto  Diagnóstico com conhecimento causal  Previsão com conhecimento diagnóstico (incomum)  Indução:  Aquisição (aprendizagem) de conhecimento  Analogia:  Utilização de conhecimento incompleto  Previsão, diagnóstico com conhecimento diagnóstico ou causal  Resolução de restrições:  Utilização de conhecimento incompleto  Previsão com conhecimento causal  Diagnóstico com conhecimento diagnóstico

19 Dedução  CPEC  CPCI |= NCEE Conhecimento Prévio Causal em Intenção   X c(X)  e(X) Conhecimento Prévio em Extensão: Causas Observadas c(a), c(b),... Novo Conhecimento em Extensão: Efeitos Previstos e(a), e(b)... Dedução  CPDI  CPEE |= NCEC Conhecimento Prévio Diagnóstico em Intenção   X e(X)  c(X) Conhecimento Prévio em Extensão: Efeitos Observados e(a), e(b),... Novo Conhecimento em Extensão: Causas c(a), c(b)...

20 Dedução: exemplos  A partir de: causal  Conhecimento prévio causal em intenção:         X,Y,T loc(agent,X,Y,T)  orientation(0,T)  forward(T)   loc(wall,X+1,Y)  loc(agent,X+1,Y,T+1)  Conhecimento prévio em extensão de causas observadas:    loc(agent,1,1,1)  orientation(0,1)  forward(1)   loc(wall,2,1)  Deduzir:  Novo conhecimento em extensão de efeito previsto:  loc(agent,2,1,2).  A partir de: diagnóstico  Conhecimento prévio diagnóstico em intenção:     X,Y,T loc(agent,X,Y,T)  smell(stench,T)  smelly(X,Y).        X,Y smelly(X,Y)  loc(wumpus,X+1,Y)  loc(wumpus,X-1,Y)  loc(wumpus,X,Y+1)  loc(wumpus,X,Y-1)).  Conhecimento prévio em extensão de efeito observado   smell(stench,3)  loc(agent,2,2,3)  Deduzir:  Novo conhecimento em extensão de causa hipotética:    loc(wumpus,3,2)  loc(wumpus,1,2)  loc(wumpus,2,3)  loc(wumpus,2,1)).

21 Abdução  CPCI  CPEC  NCEC |= CPEE Conhecimento Prévio Causal em Intenção   X co(X)  ca(X)  e(X) Conhecimento Prévio em Extensão: Efeitos Observados e(a), e(b),... Causais Observadas Incompletas co(a), co(b),... Novo Conhecimento em Extensão: Causas Hipotéticas ca(a), ca(b)... Viés sobre Hipóteses:   X ca(X)

22 Abdução: exemplo  A partir de: causal  Conhecimento prévio causal em intenção:      X,Y,T loc(agent,X,Y,T)  orientation(0,T)  do(forward,T)  loc(wall,X+1,Y)  loc(agent,X,Y,T+1)  Conhecimento prévio em extensão incompleto de causas:   loc(agent,4,1,1)  orientation(0,1)  do(forward,1)  Conhecimento prévio em extensão de efeitos observados:  loc(agent,4,1,2)  Abduzir: causa  Novo conhecimento em extensão de causa hipotética:  loc(wall,5,1)

23 Indução Novo Conhecimento Causal Hipotético em Intenção   X i(X)  e(X) Indução  CPCI  NCCI  CPEC |= CPEE Conhecimento Prévio em Extensão: Efeitos Observados e(a), e(b),... Causais Observadas c(a), c(b),... Conhecimento Prévio Causal em Intenção Incompleto   X c(X)  i(X) Viés sobre Hipóteses:   X,Y i(X)  Y(X)

24 Indução: exemplo  A partir de:  Conhecimento prévio em extensão:       ...      ...   loc(wall,1,1)  loc(wall,0,1)   loc(wall,1,2)  loc(0,2) ... loc(wall,4,5)   loc(wall,4,4)  loc(wall,3,5)   loc(wall,3,4) ...  Viés sobre hipótese:      P1,P2,P3,P4  {>,<,=},  C  { ,  },  Q1,Q2,Q3  { ,  }: Q1U1,U2,U3,U4 Q2V1,V2,V3,V4 Q3W P1(U,V1)  P2(U,V2)  P3(U,V3)  P4(U,V4)  loc(W,U,V)  Induzir:  Novo conhecimento em intenção:    X,Y X 4  Y 4  loc(wall,X,Y)  Variação:  Conhecimento prévio em intenção:    X,Y,H,W X H  Y W  loc(wall,X,Y)

25 Indução: exemplo 6 Y 5 PP B B? P v6 b P 4 Pv4v5,7B? fPO 3 Pv3v8,10 v9 fWP 2 Pv2v11 v12,14v13 bB? P 1 Pv1v16 v15 bB B?P 0 PPB? PPX

26 Analogia Novo Conhecimento em Extensão: Efeitos Previstos e(j) = e(i)... Causas Hipotéticas c(h) = c(k)... Conhecimento Prévio em Extensão: Causais Observadas c(i), c(j), c(k),... Efeitos Observados e(i), e(k), e(h),... Similaridade entre Causas s(c(i),c(j))=m, s(c(j),c(k))=n,... Similaridade entre Efeitos s(e(i),e(h))=u, s(e(k),e(h))=v,... Analogia  CPEE  CPES  CPEC |  NCEE  CPEC  CPES  CPEE |  NCEC Regra de inferência:    X,Y,P,Q (P(X)  Q(X)  P(Y)  s(P(X),P(Y))  l)  Q(Y)  m  l  n  l  u  l  v  l

27 Analogia: exemplo A partir de:  Conhecimento prévio em extensão:    loc(agent,1,1,3)  orientation(agent,180,3)  do(forward,3)  percept([none,none,none,none,bump],4)     loc(agent,1,1,5)  orientation(agent,90,5)  do(forward,5)  percept([none,none,none,none,none],6)         loc(agent,1,2,7)  orientation(agent,180,7)  do(forward,7)  percept([none,none,none,none,bump],8)  loc(agent,1,2,9)  orientation(agent,90,9)  do(forward,9)  percept([none,none,none,none,none],10)...     loc(agent,1,3,11)  orientation(agent,180,11)  do(forward,11)  ? Medidas de similaridades:  ssa = % de símbolos em comum entre as partes situação e ação das sentenças, desconsiderando as variáveis temporais  spp = % de símbolos em comum entre as partes próxima percepção das sentenças, desconsiderando as variáveis temporais Inferir por analogia: percept( [none,none,none,none,bump], 12)  Dado que: ssa(sa5,sa1) = 8/9 ssa(sa5,sa2) = 7/9 ssa(sa5,sa3) = 8/9 ssa(sa5,sa4) = 7/9 spp(sa1,sa2) = 6/6

28 Resolução de Restrições  CPI  CPE |= NCE  CPI  CPE |= NCI Conhecimento Prévio em Intenção   X,Y,P a(P,[X,Y])  c(X)+c(Y)  c(P) Conhecimento Prévio em Extensão: c(q) = 120   c(d) = 90   c(e) = 60   c(f) = 30   c(g) = 60 Novo Conhecimento em Extensão:  a(q,[d,f])  a(q,[e,g]) Novo Conhecimento em Intenção:    X,Y  {d,e,f,g} a(q,[X,Y])  c(X)+c(Y)  120

29 Agente baseado em conhecimento dedutivo ou abdutivo Ambiente Sensores Atuadores Base de Conhecimento Extensional (BCE): fatos, objetos formulas lógicas instanciadas Máquina de inferência dedutiva ou abdutiva Base de Conhecimento Intencional (BCI): regras, classes, formulas lógicas universalmente quantificadas Ask TellRetract Ask Não Monotônica

30 Agente baseado em resolução de restrições Ambiente Sensores Atuadores Base de Conhecimento Extensional (BCE): restrições instanciadas Máquina de inferência dedutiva ou abdutiva Base de Conhecimento Intencional (BCI): restrições universalmente quantificadas TellRetract Ask TellRetract Ask

31 Agente baseado em conhecimento analógico Ambiente Sensores Atuadores Base de Conhecimento Extensional (BCE): fatos, objetos formulas lógicas instanciadas estruturados por similaridades Máquina de inferência analógica AskTellRetract

32 Agentes baseados em conhecimento na tipologia de arquiteturas de agentes  O agente baseado em conhecimento é:  Reflexo?  Autômato?  Cognitivo?  Deliberativo?  Otimizador?  Adaptativo?  Híbrido?  Pode ser qualquer um !  Distinções ortogonais  Existe alguma relação entre arquitetura de agente e tipo de raciocínio?  A qual?  Agente adaptativo baseado em conhecimento inclui necessariamente uma máquina de inferência indutiva ou analógica

33 Lembram do agente deliberativo? Ambiente Sensores Atuadores Modelo dos ambientes (passados) e atual Interpretador de percepções Regras: percepção(t)  modelo(t-1)  modelo(t) Escolhedor de ação Regras: resultado([ação(t),...,ação(t+n)]) = modelo(t+n)  modelo(t+n)  objetivo(t)  faz(ação(t)) Atualizador do modelo do ambiente Regras: modelo(t)  modelo(t) Atualizador dos objetivos Regras: modelo(t)  objetivos(t-1)  objetivos(t) Objetivos Previsor de ambientes futuros Regras: modelo(t)  ação(t)  modelo(t+1) e modelo(t)  modelo(t+1) Modelo dos ambientes futuros hipotéticos

34 E lembram do agente baseado em conhecimento? Ask Tell Retract Ambiente Sensores Atuadores Base de Conhecimento Especializada Máquina de Inferência Genérica

35 Como seria então um agente deliberativo baseado em conhecimento? Ambiente Sensores Atuadores BCE: modelo dos ambientes passados e atual BCE: modelo de ambientes futuros hipotéticos BCE: Objetivos BCI: interpretação das percepções BCI: atualização do modelo do ambiente BCI: atualização do objetivos BCI: predição de ambientes futuros BCI: estratégia de escolha de ações Máquina de inferência

36 Arquitetura alternativa Ambiente Sensores Atuadores BCE: modelo dos ambientes passados e atual BCE: modelo de ambientes futuros hipotéticos BCE: Objetivos BCI: interpretação das percepções BCI: atualização do modelo do ambiente BCI: atualização do objetivos BCI: predição de ambientes futuros BCI: estratégia de escolha de ações Máquina de inferência 1 Máquina de inferência 2 Máquina de inferência 3 Máquina de inferência 4 Máquina de inferência 5

37 Como se obtém conhecimento?  Durante desenvolvimento:  Conhecimento em intencao e em extensao inicial  Manualmente via codificação direta  Semi-automaticamente via interface de aquisição de conhecimento  Semi-automaticamente via aprendizagem de máquina (indução off-line)  Usando metodologias de engenharia de conhecimento  Durante execução:  Conhecimento em extensao  Automaticamente via percepção, dedução, abdução ou analogia  Conhecimento em intencao  Automaticamente via analogia ou indução on-line (agente aprendiz situado)

38 Engenharia do conhecimento  Metodologia  Metodologia para desenvolver sistemas baseados em conhecimento e especialmente bases de conhecimento  Orientação a objeto(e também métodos formais) em:  Orientação a objeto (e também métodos formais) em:  Linguagens de modelagem, programação e representação do conhecimento  Favoreceu interseção e convergência entre engenharia de software e engenharia de conhecimento  Problemática comum:  Robustez, escalabilidade, estendibilidade, reusabilidade, desenvolvimento distribuído, elicitação do conhecimento de especialista do domínio leigo em informática  Desenvolvimento de uma base de conhecimento:  Geralmente em espiral com três níveis principais de captura de conhecimento  Nível do conhecimento, nível da formalização, nível da implementação

39 Engenharia de uma base de conhecimento Elicitação do conhecimento Formalização do conhecimento Implementação do conhecimento Nível do conhecimento : Nos termos do especialista do domínio de aplicação Linguagem natural, Notações gráficas ad-hoc Nível semi-formal: Notação textual estruturada padrão (XML) Notação gráfica padrão (UML) Validação com especialista Nível formal: Notação sem ambigüidade com semântica definida matematicamente (Lógica, Probabilidades) Verificação de consistência Nível da implementação: Codificação em uma linguagem de programação Teste de protótipo

40 Engenharia de uma base de conhecimento Elicitação do conhecimento Formalização do conhecimento Implementação do conhecimento Nível do conhecimento : Nos termos do especialista do domínio de aplicação Linguagem natural, Notações gráficas ad-hoc Nível semi-formal: Notação textual estruturada padrão (XML) Notação gráfica padrão (UML) Validação com especialista Nível formal: Notação sem ambigüidade com semântica definida matematicamente (Lógica, Probabilidades) Verificação de consistência Nível da implementação: Codificação em uma linguagem de programação Teste de protótipo

41 Engenharia de uma base de conhecimento Elicitação do conhecimento Formalização do conhecimento Implementação do conhecimento Nível do conhecimento Nível do conhecimento : Nos termos do especialista do domínio de aplicação Linguagem natural, Notações gráficas ad-hoc Nível semi-formal: Notação textual estruturada padrão (XML) Notação gráfica padrão (UML) Validação com especialista Nível formal: Notação sem ambigüidade com semântica definida matematicamente (Lógica, Probabilidades) Verificação de consistência Nível da implementação: Codificação em uma linguagem de programação Teste de protótipo Entrevistas estruturadas com especialista Preparação de dados Ontologias Linguagens semi-formais de representação do conhecimento Linguagens formais de representação do conhecimento Aprendizagem de Máquina Compiladores Máquinas de inferências Aprendizagem de Máquina

42 Agente indutivo off-line: fase de treinamento Base de Dados, Exemplos, Casos representativos do ambiente fatos, objetos formulas lógicas instanciadas Máquina de inferência dedutiva e/ou abdutiva Base de Conhecimento Intencional (BCI): regras, classes, formulas lógicas universalmente quantificadas Máquina de inferência indutiva Ask Tell Retract Formação de Hipóteses Verificação de Hipóteses Ask Tell Retract Ask

43 Agente indutivo off-line: fase de utilização Ambiente Sensores Atuadores Base de Conhecimento Extensional (BCE): fatos, objetos formulas lógicas instanciadas Máquina de inferência dedutiva e/ou abdutiva construída por indução: Base de Conhecimento Intencional (BCI) construída por indução: regras, classes, formulas lógicas universalmente quantificadas Ask TellRetract

44 Agente indutivo situado Base de Conhecimento Extensional (BCE): fatos, objetos formulas lógicas instanciadas Máquina de inferência dedutiva e/ou abdutiva Base de Conhecimento Intencional (BCI): regras, classes, formulas lógicas universalmente quantificadas Máquina de inferência indutiva Ask Tell Retract Formação de Hipóteses Verificação de Hipóteses Ask Tell Retract Ambiente Sensores Atuadores


Carregar ppt "Agentes Baseados em Conhecimento Jacques Robin Geber Ramalho CIn-UFPE."

Apresentações semelhantes


Anúncios Google