A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Busca Online Alexandra Barros Geber Ramalho. Busca Offine x Busca Online Busca Offline (ou planejamento clássico) –Computa a solução (do estado inicial.

Apresentações semelhantes


Apresentação em tema: "Busca Online Alexandra Barros Geber Ramalho. Busca Offine x Busca Online Busca Offline (ou planejamento clássico) –Computa a solução (do estado inicial."— Transcrição da apresentação:

1 Busca Online Alexandra Barros Geber Ramalho

2 Busca Offine x Busca Online Busca Offline (ou planejamento clássico) –Computa a solução (do estado inicial até o objetivo) para depois iniciar a seqüência de ações –A partir de então as percepções são ignoradas –Domínios Determinísticos e Estáticos Exemplo jogo dos n-números Busca Online (e alguns planej. avançados) –Intercala planejamento e ação. Executa uma ação, observa o ambiente e calcula a próxima ação. –Domínios Estocásticos e Dinâmicos Exemplo: Ratinho tentando achar o caminho por um labirinto, dirigir sem mapa,...

3 Busca online Problemas exploratórios –Espaço de estados desconhecido Ex. O agente não sabe que Up leva de 1,1 para 1,2 até ter feito isto (S = start e G = goal)

4 Agente de busca online O que o agente sabe: Funções –Ações(s) - ações possíveis para um dado estado s –Testa-objetivo(s) –Custo(s,a,s), onde a é uma ação Observações –O agente não tem acesso prévio ao estado sucessor s de s, nem ao valor do custo de ir de s para s Em ambos os casos precisa agir antes... –Vai memorizando/atualizando o espaço de busca (mapa)

5 Busca online Observações (cont.) –Só pode expandir nós onde ele fisicamente se encontra (ex. rota de cidade A para B) Adequado para busca em profundidade! Assumi-se que –as ações são deterministas –o agente pode reconhecer estados já visitados (memorizar) –existe uma função heurística admissível

6 Busca em Profundidade Online Busca em profundidade –Coerente c/ localidade da expansão dos nós Manter atualizado –um mapa das relações entre ações e estados [a,s] => s ( Result) –para cada nó, uma lista das ações não executadas Actions(s) ( Unexplored) –para cada nó, uma lista dos nós predecessores para os quais ainda não fez backtracking ( Unbacktracked) Não sabe que aplicando a ( se a = UP, a = DOWN) em s´, volta para s, pois desconhece as ligações entre estados e ações

7 Exemplo (trace) Exemplo –Ordem das visitas: S 1, S 2, S 3, S 4, S 5, S 3... –Unexplored(S 3 ) depois de a = {Up,Left,Right} –Unbacktracked de S 3 = {S 2, S 6 } S2S2 S1S1 S6S6 S3S3 S5S5 S4S4 a

8 Busca em Profundidade Online function O NLINE -DFS-A GENT (s) returns an action inputs: s, uma percepção que identifica o estado atual static: result[s,a], tabela (mapa) ação+s => s, inicialmente vazia unexplored, para cada nó, lista das ações ainda não executadas unbacktracked, para cada nó, nós predecessores para os quais ainda unbacktracked para cada nó s, a, estado e ação anteriores, inicialmente null if G OAL -T EST (s) then return stop if s é um estado novo then unexplored[s] A CTION S(s´) if s não é null then do result[a,s] s adiciona s to na frente de unbacktracked[s] if unexplored[s] está vazio then if unbacktracked[s] está vazio then return stop else a uma ação b tal que result[b,s] = P OP (unbacktracked[s] ) else a P OP (unexplored[s] ) s return a

9 Hill-climbing –Mesmo princípio da localidade –Já é um algoritmo online (pois só mantém um nó na memória) –Não muito útil (preso em ótimo local) –Reinício aleatório impossível (sem teletransporte :-). Alternativa: Random-walk search –Escolhe ações aleatoriamente preferindo as não usadas Se tempo suficientemente grande, acha solução –Pode custar bem caro...

10 Aprendendo em Busca Online LRTA* (Learning Real-Time A*) –Dar mais memória para o hill-climbing –Armazenar a melhor estimativa corrente H(s) do custo para se atingir o objetivo a partir do nó sendo visitado –H(s) começa igual à heurística h(s) e é atualizada na medida em que o agente conhece o espaço de estados –Agente vai para nó vizinho mais promissor e atualiza nó anterior H(s) = c(s,a,s) + H(s) Custo estimado de s ao objetivo passando por s é o custo para ir de s a s mais H(s) Aplaina ótimos locais –O(n 2 ) para n estados no pior caso

11 LRTA* (learning real-time A*) (a) (b) (c) (d) (e) H(s) no nó, custo no arcoe agente no nó colorido (a)Agente preso em mínimo local (b)Agente vai para nó vizinho mais promissor: (esq = 9+1) vs. dir = 2 +1 e atualiza nó anterior pois H(s) estava subestimado (c)Idem...

12 É claro... Pode-se usar aprendizagem por reforço... –Até em mundos dinâmicos e não deterministas


Carregar ppt "Busca Online Alexandra Barros Geber Ramalho. Busca Offine x Busca Online Busca Offline (ou planejamento clássico) –Computa a solução (do estado inicial."

Apresentações semelhantes


Anúncios Google