Agentes Baseados em Utilidade

Slides:



Advertisements
Apresentações semelhantes
Introdução a Algoritmos
Advertisements

Inteligência Artificial
Resposta do Exercício sobre Árvores de Decisão
6a Aula Horacio Nelson Hastenreiter Filho
Teoria Econômica do Turismo Aspectos Microeconômicos
UNIDADE 2 -complementos
COMERCIALIZAÇÃO DE PRODUTOS AGROINDUSTRIAIS
Inteligência Artificial
Inteligência Artificial
Inteligência Artificial
Inteligência Artificial
Medida do Tempo de Execução de um Programa
Busca Online Alexandra Barros Geber Ramalho. Busca Offine x Busca Online Busca Offline (ou planejamento clássico) –Computa a solução (do estado inicial.
Sistemas Especialistas Probabilísticos
Sistemas Distribuídos Walfredo Cirne & Fubica Brasileiro Aula 5: Modelos de Sistemas Distribuídos.
Sistemas Distribuídos
Sistemas Distribuídos Walfredo Cirne & Fubica Brasileiro Aula 5: Modelos de Sistemas Distribuídos.
Carolina Fonseca Neumar Ribeiro
Análise Léxica Supondo o trecho de programa abaixo:
Análise de Decisão Aplicada a Gerência Empresarial – UVA Enfoque multicritério Bibliografia: ALMEIDA, Adiel – Cap 3 Prof. Felipe Figueira
Ambiente de simulação Os algoritmos previamente discutidos foram analisados usando um simulador de mobilidade. Ele modela uma cidade de 20 Km de raio,
INF 1771 – Inteligência Artificial
Conceitos Básicos.
Empreendedorismo Cidinha Fonseca.
Teoria Geral de Sistemas
Análise de Investimentos
Análise Microeconômica III
Agentes Baseados em Utilidade
Microeconomia A III Prof. Edson Domingues Aula 6 Incerteza
Microeconomia A III Prof. Edson Domingues Aula 9
Microeconomia A III Prof
Copyright © 2004 South-Western 27 As Ferramentas Básicas das Finanças.
Economia e Mercado 4ª AULA.
Aula T06 – BCC202 Análise de Algoritmos (Parte 4) Túlio Toffolo
Sistema de Comando em Operações
Economia e Gestão ESAPL - IPVC
Desafios gerenciais Aula 4.
Agentes Baseados em Utilidade
Agentes Baseados em Utilidade
Agentes Baseados em Utilidade
Roteiro Agentes Trabalhando Juntos Coordenação em SMA
Sistemas Inteligentes
VALORAÇÃO AMBIENTAL.
Tópicos em Sistemas Inteligentes
Políticas Publicas Aula 10.
Estatística Aula 13 Prof. Marllus Gustavo Ferreira Passos das Neves
Teoria da Decisão Métodos de Computação Inteligente
Unid. 4 – Passivos, Patrimônio Líquido, Receitas e Despesas
Distribuição aos Acionistas. Os lucros gerados podem ser reinvestidos em ativos operacionais, utilizados para aquisição de valores mobiliários ou cancelamento.
Unified Modeling Language Professor Mário Dantas A NÁLISE O RIENTADA A O BJETOS Nov/2010.
ADMINISTRAÇÃO FINANCEIRA
Agenda Agentes que Respondem por Estímulo Agentes Inteligentes.
Agentes Baseados em Utilidade. Parte I: Decisões Simples “Como um agente deve tomar decisões de modo que, em média, ele consiga o que quer”
ANÁLISE ESTATÍSTICA II
Inteligência Artificial Aula 15 Profª Bianca Zadrozny
Agentes Baseados em Utilidade Métodos da Computação Inteligente Universidade Federal de Pernambuco Aluno: Rodrigo Barros de Vasconcelos Lima.
Busca Competitiva Disciplina: Inteligência Artificial
Capítulo 5Slide 1 Introdução Fazer escolhas na ausência de incerteza não envolve grandes dificuldades. Como devemos escolher quando certas variáveis, como.
Como deixar para trás as reuniões sem fim Como aumentar a eficiência das reuniões de trabalho Fonte: Harvard Business Por Walquiria Lima.
Gerenciamento de riscos
NOÇÕES DE TESTE DE HIPÓTESES (I) Teste de hipóteses para a proporção populacional.
Diagrama de atividade.
Busca Heurística Prof. Valmir Macário Filho. 2 Busca com informação e exploração Capítulo 4 – Russell & Norvig Seção 4.1 Estratégias de Busca Exaustiva.
Gestão da Informação e do Conhecimento Aula 08 A administração da incerteza: as organizações como sistemas de tomadas de decisão Prof. Dalton Martins
Agentes Baseados em Utilidade. Parte I: Decisões Simples “Como um agente deve tomar decisões de modo que, em média, ele consiga o que quer”
Teoria das Preferências
Utilidade Utilidade.
Comportamento Assintótico
Universidade Federal de Itajubá Uma introdução à Teoria dos Jogos Fred Leite Siqueira Campos.
Economia de Mercado Bruno Oliveira de Araújo
Transcrição da apresentação:

Agentes Baseados em Utilidade Gustavo Danzi de Andrade Patrícia Tedesco {gda,pcart}@cin.ufpe.br

Parte I: Decisões Simples “Como um agente deve tomar decisões de modo que, em média, ele consiga o que quer”

Decision Theoretic Agent Agente capaz de ... Tomar decisões racionais baseado no que acredita e deseja Diferentemente de um agente lógico Pode tomar decisões em ambientes com incertezas e objetivos conflitantes Possui uma escala contínua de medida de qualidade sobre os estados Valores associados a cada estado (utilidade) indicando a “felicidade” do agente ! Funções de Utilidade associam um valor a um estado Indica o “desejo” por estar nesse estado U(S) = utilidade estado S de acordo com o agente Ex.: s1 = {rico, famoso}, s2 = {pobre, famoso} U(s1) = 10 U(s2) = 5

Funções de Utilidade Resulti(A): Todos os possíveis estados de saída de uma ação não-determinista A Para cada saída possível é associada uma probabilidade: P (Resulti(A) | Do(A), E) Onde, E resume a evidência que o agente possuí do mundo Do(A) indica que a ação A foi executada no estado atual Utilidade esperada de uma ação A dado a evidência do mundo E: EU(A|E) = i P(Resulti(A)|Do(A),E) U(Resulti(A)) Principio da Maximização da Utilidade: agente racional deve escolher ação que maximiza sua utilidade esperada !!! Nesta aula: Tomadas de Decisões Simples É difícil enumerar todas seqüências de ações Custo computacional, geralmente, proibitivo

Exemplo: Cálculo da Utilidade Esperada Robô deve transportar uma caixa E = caixa é de metal a1 = Chutar: s1, caixa no destino 20% U(s1) = 10 s2, caixa no meio do caminho 30% U(s2) = 5 s3, caixa longe destino 50% U(s3) = 0 a2 = Carregar: s1, caixa no destino 80% U(s1) = 10 s2, caixa na origem 20% U(s2) = 0 EU(a1) = 0,20 x 10 + 0,30 x 5 + 0,50 x 0 = 3,5 EU(a2 ) = 0,80 x 10 + 0,20 x 0 = 8

Preferências Racionais Funções de Utilidade são, essencialmente, heurísticas! Comportamento de qualquer agente racional pode ser adquirindo supondo-se uma função de utilidade a ser maximizada Preferências racionais permitem descrever o melhor comportamento como aquele que maximiza EU Notação: A  B: A é preferível a B A ~ B: agente indiferente entre A e B A  B: agente prefere A à B ou é indiferente Para ações não-deterministas: A e B são loterias, i.e., distribuições probabilísticas sobre um conjunto de estados de saída L = {p1.S1; p2. S2; ...; pn.Sn}

Restrições Sobre Preferências Racionais Principio da Utilidade: Preferências que satisfaçam os axiomas garantem a existência de uma função real U, tal que: U(A) > U(B)  A > B U(A) = U(B)  A ~ B U (p1.S1; ... ; pn.Sn) = i pi U(Si) Axiomas da Teoria da Utilidade: Ordenabilidade: (A > B)  ( B > A)  (A ~ B) Transitividade: (A > B)  (B > C)  (A > C) Continuidade: A > B > C  p [p.A; 1 - p.C] ~ B Substitutabilidade: A ~ B  [p.A; 1 – p.C] ~ [p.B; 1 – p.C] Monoticidade: A > B  ( p  q  [p.A; 1 – p.B]  [q.A; 1 – q.B] ) Decomposabilidade: [p.A; 1 – p. [q.B; 1 – q.C] ] ~ [p.A; (1 – p)q.B; (1 – p)(1 – q). C]

Exemplo: Restrições Sobre Preferências Racionais Violação das restrições levam a comportamentos irracionais Exemplo: agente com preferências não transitivas pode ser induzido a dar todo o seu dinheiro: Se B > C, então um agente que possuí C pagaria 1 centavo para obter B C B 1 c Se A > B, então um agente que possui B pagaria 1 centavo para obter A C B 1 c A Se C > A, então um agente que possuí A pagaria 1 centavo para obter C C B 1 c A

Exemplo: A Utilidade do Dinheiro Um jogador ganhou um prêmio de R$ 1.000.000 em um programa de TV Apresentador oferece uma aposta: Se ele jogar a moeda e aparecer cara  jogador perde tudo Se aparecer coroa  jogador ganha R$ 3.000.000 O Valor Monetário Esperado da aposta é: 0.5 (R$ 0) + 0.5 (R$ 3.000.000) = $ 1.500.000 O Valor Monetário Esperado de recusar a aposta é de R$ 1.000.000 (menor) Isso indica que seria melhor aceitar a aposta ?

Exemplo: A Utilidade do Dinheiro Utilidade Esperada para cada uma das duas ações: EU (Aceitar) = 0.5 U(Sk) + 0.5 U(Sk+3.000.000) EU (Rejeitar) = U(Sk+1.000.000) Onde, Sk = riqueza atual do jogador Deve-se atribuir valores de utilidade para cada estado de saída: Sk = 5; Sk+3.000.000 = 10; Sk+1.000.000 = 8 Ação racional: rejeitar ! Conclusão: Utilidade não é diretamente proporcional ao valor monetário Utilidade (mudança no estilo de vida) para o primeiro R$ 1.000.000 é muito alta

Funções de Utilidade Multi-Atributo Como tratar funções de utilidades com várias variáveis X1, ..., Xn ? Ex.: Construir aeroporto, Variáveis: Segurança, Custo, Poluição sonora U (Segurança, Custo, Poluição sonora) = ? Existem basicamente dois casos: Dominância: decisões podem ser tomadas sem combinar os valores dos atributos em um único valor da utilidade Estrutura de Preferência e Utilidade Multi-atributo: utilidade resultante da combinação dos valores dos atributos pode ser especificada concisamente

Dominância Total Se um estado S1 possui valores melhores em todos seus atributos do que S2, então existe uma dominância total de S1 sobre S2  i Xi(B)  Xi(A) (e portanto U(B)  U(A)) Ex.: Local S1 para Aeroporto custa menos e é mais seguro que S2 Dominância total raramente acontece na prática !!!

Dominância Estocástica Exemplo, custo de construir aeroporto : Em S1 valor uniformemente distribuído entre $2,8 e $4,8 bilhões Em S2 valor uniformemente distribuído entre $3 e $5,2 bilhões Dada a informação que utilidade decresce com custo: S1 domina estocasticamente S2 EU de S1 é pelo menos tão alta quanto EU de S2 $ - 2,8 -5.2 P S1 S2 Na prática, dominância estocástica pode geralmente ser definida usando apenas um raciocínio qualitativo Ex.: custo de construção aumenta com a distância para a cidade: S1 é mais próximo da cidade do que S2  S1 domina S2 estocasticamente sobre o custo

Estrutura de Preferência e Utilidade Multi-Atributo Supondo que existem n atributos com d possíveis valores: No pior caso, serão necessários dn valores (preferência sem regularidade!) A Teoria da Utilidade Multi-atributo assume que preferências de agentes possuem certa regularidade (estrutura) Abordagem básica é tentar identificar essas regularidades! Agentes com uma certa estrutura em suas preferências terá uma função: U(x1 ... Xn) = f[ f1(x1) ..... f2(x2) ] Onde espera-se que f seja uma função simples!

Estrutura de Preferência (Situação Determinista) X1 e X2 são preferencialmente independente de X3 se, e somente se: Preferência entre {x1, x2, x3} e {x1’, x2’, x3} não depende em x3 Independência preferencial mútua (MPI): todos os pares de atributos são preferencialmente independente com relação aos demais Ex.: Segurança, Custo, Poluição sonora Com MPI, o comportamento preferencial do agente pode ser descrito como uma maximização da função: V (x1 ... xn) = i Vi(xi) Para o caso não determinista, basta estender para lidar com loterias

Redes de Decisões Formalismo para expressar e resolver problemas de decisão: estende Redes Bayesianas adicionando ações e utilidades Representa informações sobre Estado atual do agente Possíveis ações Estado resultante e sua utilidade Composto de: Nós de Chance (ovais): representam variáveis como nas redes Bayesianas Nós de Decisão (retângulo): pontos onde agente deve escolher uma ação Nós de Utilidade (diamantes): representam as funções de utilidade do agente Algoritmo de avaliação: Atribuir os valores das variáveis para o estado corrente; Calcular o valor esperado do nó de utilidade dado a ação e os valores das variáveis; Retornar a ação com maior Utilidade Máxima Esperada

Exemplo: Redes de Decisões Info. sobre estado atual Local do Aeroporto Info. sobre estado futuro Trafego aéreo Construção Litigação Barulho Segurança Custo U

Teoria do Valor da Informação Problemas anteriores assumiam que todas as informações estavam disponíveis O que acontece quando elas não estão? Cabe ao agente buscar as informações necessárias ... No entanto ... Obtenção de informações tem um custo associado Ex.: solicitação de um exame por parte de um medico A Teoria do Valor da Informação permite que o agente escolha quais informações adquirir

Cálculo do Valor da Informação: Exemplo Exemplo: comprar os direitos de exploração de reservas de petróleo: Dois blocos A e B, apenas um possui óleo com valor C; Probabilidade de comprar o bloco certo = 0,5 O preço de cada bloco é C/2 Consultor oferece uma pesquisa para detectar qual bloco possui petróleo. Qual o valor dessa informação? Solução: Calcular o valor esperado da informação = valor esperado da melhor ação dada a informação – valor esperado da melhor ação sem a informação; Pesquisador irá informar: “há óleo em A” ou “não há óleo em A” (p = 0,5) Então: 0,5 x valor de “comprar A” dado que “há óleo em A” + 0,5 x valor de “comprar B” dado que “não há óleo em A” – 0 = = (0,5 x C/2) + (0,5 x C/2) – 0 = C/2

Valor da Informação: Exemplo A1 e A2 duas rotas distintas através de uma montanha no inverno A1 e A2 são as únicas ações possíveis, com EU = U1 e U2, respectivamente A1 = caminho mais baixo, sem muito vento A2 = caminho mais alto, com muito vento U (A1) > U (A2) Nova evidência NE produzirá novas utilidades esperadas U1’ e U2’ Vale a pena adquirir NE? E se mudássemos o cenário? II) A1 e A2 são duas estradas onde venta muito, de mesmo tamanho e levamos um ferido grave III) Mesmas estradas A1 e A2 mas agora no verão Conclusão: uma informação só terá valor caso gere uma mudança de plano, e se esse novo plano for significativamente melhor do que o antigo !