A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Sistemas Especialistas Probabilísticos

Apresentações semelhantes


Apresentação em tema: "Sistemas Especialistas Probabilísticos"— Transcrição da apresentação:

1 Sistemas Especialistas Probabilísticos

2 Sistemas Especialistas Probabilísticos
Glauber Tomaz Hendrik Teixeira Macedo Mariana Lara Neves

3 Conteúdo da apresentação
Combinando conhecimento e objetivos num ambiente de incerteza A Teoria da Utilidade Funções de utilidade Funções de utilidade multivariada Redes de decisão Teoria do Valor da Informação

4 Combinando a teoria da utilidade com a teoria da probabilidade
Criação de um “decision-theoric agent” este agente toma decisões em contextos onde a incerteza e os objetivos conflitantes deixariam um agente lógico sem poder de decisão usa uma função utilidade no processo de tomada de decisão

5 fornece um número que expressa quão desejável o estado é para o agente
Função utilidade fornece um número que expressa quão desejável o estado é para o agente indica as preferências do agente entre as várias situações do mundo é combinada com a probabilidade de ocorrência dos estados resultantes, fornecendo a utilidade esperada de cada ação

6 P(Resulti(A) | Do(A),E)
Função utilidade U(S)  utilidade do estado S cada ação A poderá gerar diferentes estados Resulti(A) antes da execução da ação A, o agente calcula a probabilidade para cada estado resultante: P(Resulti(A) | Do(A),E) E  evidência do agente sobre o mundo Do(A)  proposição de que A será executada no estado em que o agente se encontra

7 a utilidade esperada de uma ação, dadas as evidências do estado:
Função utilidade a utilidade esperada de uma ação, dadas as evidências do estado: EU(A|E) = P(Resulti(A)|E,Do(A)).U(Resulti(A)) Princípio da máxima utilidade esperada (MEU): um agente racional deverá escolher a ação que maximize sua utilidade esperada

8 L= [p,A ; 1-p,B] A>B, AB e AB
Teoria da Utilidade Loteria: cenários complexos onde os diferentes resultados obtidos são “prêmios”, e que estes são determinados por acaso. L= [p,A ; 1-p,B] Notação para expressar preferências entre loterias: A>B, AB e AB

9 Axiomas da teoria da utilidade:
Ordenamento: (A>B) V (B>A) V (AB) Transitividade: (A>B)  (B>C)  (A>C) Continuidade: A>B>C  p [p,A ; 1-p,C]  B

10 Axiomas da teoria da utilidade:
Substituição: AB  [p,A ; 1-p,C]  [p,B ; 1-p,C] Monotonicidade: A>B  (pq  [p,A; 1-p,B]  [q,A; 1-q,B] Decomposição: [p,A; 1-p,[q,B; 1-q,C]]  [p,A;(1-p)q,B; (1-p)(1-q),C]

11 U([p1,S1 ; ... ; pn,Sn]) =  piU(Si)
Axiomas da Utilidade: Princípio da Utilidade: U(A)>U(B)  A>B U(A)=U(B)  A  B Princípio da Máxima Utilidade Esperada (MEU): U([p1,S1 ; ... ; pn,Sn]) =  piU(Si)

12 mapeia estados em valores reais
Funções Utilidade mapeia estados em valores reais os agentes podem ter quaisquer preferências, contanto que elas atendam aos axiomas da teoria Utilidade do dinheiro: preferência monotônica: o agente prefere possuir mais dinheiro quando se lida com valores definidos

13 Exemplo de um programa de TV (solução 1)
opção 1: US$ 1,000,000 opção 2: tentar US$ 3,000,000 na moeda (cara ou coroa) Cálculo do EMV (Valor monetário esperado) EMV(rejeitar) = US$ 1,000,000 EMV(aceitar) = ½($0) + ½($3,000,000) = US$ 1,500,000 Solução: aceitar!

14 Exemplo de um programa de TV (solução 2)
situação atual  U(Sk) = 5 opção 1  U(Sk+1,000,000) = 8 opção 2  U(Sk+3,000,000) = 10 EU(rejeitar) = U(Sk+1,000,000) = 8 EU(aceitar) = ½ U(Sk) + ½ U(Sk+3,000,000) = 7.5 Solução: rejeitar!

15 Paradoxo de St. Petersburg (Bernoulli - 1738)
Moeda : cara na n-ésima vez  $ 2n Probabilidade = (½)n EMV =  P(carai).MV(carai) = (½)i.2i = =  Bernoulli: a utilidade do dinheiro é medida em escala logarítmica U(Sk+n) = log2n EU =  P(carai).U(carai) = (½)i.log22i = 1/2 + 2/ = 2 U(Sk+4) = log24 = (US$4,00)

16 Grayson (1960) As preferências de Mr. Beard são consistentes com a função utilidade: U(Sk+n) = log(n + 150,000) para (-$150,000 < n < $800,000)

17 risk-averse: U(SL) < U(SEMV(L)) (parte positiva do gráfico)
Grayson (1960) Boa parte das pessoas tem uma função com forma côncava no lado positivo de riqueza risk-averse: U(SL) < U(SEMV(L)) (parte positiva do gráfico) risk-seeking: (parte negativa do gráfico) certainty equivalent: valor que o agente aceita no lugar de uma aposta insurance premium: diferença entre EMV(L) e o certainty equivalent risk-neutral: agente que possui uma curva linear para a função utilidade

18 Tversky e Kahneman (1982) , Allais (1953) A: 80% de chance de $4,000
Julgamento humano Teoria de decisão é normativa: descreve como o agente deveria atuar. As pessoas geralmente violam os axiomas da teoria da utilidade. Tversky e Kahneman (1982) , Allais (1953) A: 80% de chance de $4,000 B: 100% de chance de $3,000 C: 20% de chance de $4,000 D: 25% de chance de $3,000

19 Resultados: B e C Julgamento humano U($0) = 0
0.8.U($4,000) < U($3,000) 0.2.U($4,000) > 0.25.U($3,000) risk-averse em eventos com alta probabilidade de ganhos risk-seeking em eventos de baixa probabilidade de ganho

20 Escalas e valores da utilidade
“melhor prêmio possível”  U(S) = uT “pior catástrofe possível”  U(S) = u Utilidades normalizadas: u = 0 e uT=1 resultados intermediário: [p, uT; (1-p), u] Exemplos: problemas médicos, de transporte e de meio-ambiente

21 Escalas e valores da utilidade
Nos casos médicos e de segurança, temos: u = morte imediata exemplos: revisões em aviões, material dos carros, etc.. Valor de cada vida humana (análises médicas e de segurança): micromort = chance de uma em um milhão de morte (US $20) QUALY = equivalente a um ano em boa saúde, sem enfermidades

22 Sistemas Especialistas sob Incertezas
“...um programa de computador inteligente, que usa uma base de conhecimento e inferências para resolver problemas complexos, que requerem grande esforço intelectual humano.” (Feigenbaum 82). Todos os organismos vivos são especialistas em lidar com incertezas, do contrário não sobreviveriam. Problema: Instalar um reator nuclear. Considerações: custo do terreno, distância às áreas habitadas, risco de acidentes, etc. Características do problema: vários atributos.

23 Funções Utilidade Multivariadas
Um agente com um conjunto de preferências tem uma função utilidade do tipo U(x1,..., xn) = f[f1(x1),..., fn(xn)] onde f1(x1) é uma função “simples”. Quanto maior o valor do atributo, maior o valor da função utilidade. Exemplo: quanto maior a AusênciaDeAcidentes, melhor a solução.

24 Dominância entre Atributos
Um terreno B, para a construção do reator, custa menos e é mais distante das áreas habitadas do que um terreno A. X1 Região de domínio sobre A C B A D X2 Mas se os atributos forem incerteza ? ?

25 Neste caso, precisamos introduzir o conceito de dominância estocástica.
Suponha que o custo do terreno A seja normalmente distribuído em torno de R$ 3,7 milhões, com desvio padrão de R$ 0,4 milhões; e o custo do terreno B seja normalmente distribuído em torno de R$ 4,0 milhões, com desvio padrão de R$ 0,35 milhões. Professor, o que é dominância estocástica ?

26 Distribuição Acumulada e Dominância
Matematicamente se duas ações A e B têm distribuição de probabilidade p1(x) e p2(x) com relação ao atributo X, então A domina estocasticamente B em X se

27 Estruturas de Preferências e Utilidade Multivariada
Preferências sem Incerteza Um conjunto de atributos {risco, custo do terreno, funcionários} exibe independência preferencial mútua (IPM) se estes não são correlacionados. Teorema: Se os atributos X1,...,Xn são mutuamente independentes, então a preferência do agente pode ser descrita como a que vai maximizar a função onde cada Vi é a função valor do atributo Xi.

28 Preferências com Incerteza
Atributos {X1,..., Xn} têm independência de utilidade sobre atributos {Y1,..., Yn}, se as preferências pelas loterias em {X1,..., Xn} são independentes dos valores de {Y1,..., Yn}. Atributos {X1,..., Xn} são mutuamente independentes de utilidade (MIU), se cada subconjunto de {X1,..., Xn} é independente de utilidade dos demais atributos do conjunto. Para atributos MIU, a utilidade é multiplicativa. U = k1U1 + k2U2 + k1 k2U1 U2.

29 Rede de Decisão Rede de Decisão = Rede Bayesiana + ações/utilidades U
Local do reator Risco de Acidentes Proximidade à População U Funcionários Custos

30 Descrição da Rede de Decisão
Nós de Chance (ovais): representam as variáveis aleatórias como nas redes Bayesianas; Nós de Decisão (retângulos): representam os pontos onde o agente que vai tomar a decisão pode escolher uma ação; Nós de Utilidade (losângulos): representam a função utilidade do agente.

31 Tabela de Ação-Utilidade
Local do reator Risco de Acidentes U Funcionários A tabela de ação-utilidade é uma versão compilada da formulação original.

32 Algoritmo de Avaliação de Redes de Decisão
1. Ajuste as variáveis de evidência para o estado atual. 2. Para cada possível valor do nó de decisão: (a) Ajuste o nó para o valor de decisão dado; (b) Calcule as probabilidades posteriores para os nós pais do nó utilidade, usando um algoritmo inferência probabilística padrão; (c) Calcule a utilidade resultante da ação; 3. Retorne a ação com a maior função utilidade.

33 Teoria do Valor da Informação
Quais as perguntas que devemos fazer sobre o problema? Precisamos saber como novas informações vão afetar a função utilidade do agente. Petrobrás Privatização ?

34 Problema do Petróleo Uma multinacional está vai comprar os direitos de explorar petróleo no Brasil. Existem 10 bacias onde a exploração é permitida. Estudos revelaram que apenas uma das bacia tem uma boa reserva de petróleo que vale aproximadamente R$ 1 bilhão. O preço de cada bacia é R$ 100 milhões. Quanto a empresa deve pagar para obter a informação da consultoria ?

35 Considere n = 10, C = R$ 1 bilhão e C/n = R$ 100 milhões.
Com uma probabilidade 1/n, a consultoria mostra que a bacia 3 tem petróleo. Neste caso, a companhia vai comprar o bacia por C/n e terá um lucro de C - C/n = (n - 1)C/n . Com uma probabilidade (n - 1)/n, a consultoria mostra que um bloco não tem petróleo. A probabilidade de encontrar petróleo nas outras bacias é de 1/(n - 1). Assim, o lucro da empresa é C/(n - 1) - C/n = C/[(n - 1)/n] . O lucro que a empresa terá devido a informação é

36 Valor da Informação Perfeita (VIP)
O conhecimento atual do agente é E. A função utilidade esperada para a melhor ação a é dada por onde A é uma ação do agente, Ri(A) é um estado de saída possível, F(A) representa a execução da ação A e P(Ri | E, F ) é a probabilidade condicional de Ri acontecer quando E e F acontecem.

37 O novo valor de após a nova evidência Ej é
A evidência Ej é uma variável aleatória, portanto, devemos tomar a média sobre todos os possíveis valores ejk de Ej. O valor da informação Ej é definido por

38 Propriedades do Valor da Informação
O valor da informação é não negativo O valor da informação, em geral, é não aditivo O valor da informação independe da ordem

39 Algoritmo de um Agente-Detetive Miope
função Agente-Detetive (percepção) retorna uma ação estático: D - uma rede de decisão integre a percepção em D j o valor que maximiza GE(Ej) - C(Ej) Se GE(Ej) > C(Ej) então retorne uma Requisição de Ej do contrário retorne a melhor ação de D O agente miope calcula o valor da informação assumindo que apenas uma evidência é adquirida.

40 Construindo um Sistema Especialista sob Incerteza
Determine o escopo do problema Desenhe a rede de conexões (topologia) Associe as probabilidades Associe as utilidades Forneça as evidências disponíveis Avalie o diagrama Obtenha outras evidências Realize uma análise sobre as repostas a pequenas variações do sistema

41 Biobliografia Russel, S. and Norvig, P., “Artificial Intelligence: A Modern Approach”, Prentice-Hall (1995). Capítulo 16. Giarratano, J. and Riley, G., “Expert Systems: Principles and Programming ”, International Thomson Publishing, 2nd edition (1994). Capítulo 4. Waterman, D. A., “A Guide to Expert Systems ”, Addison-Wesley (1986). Capítulos 12 e 25. Rich, E. e Knight, K., “ Inteligência Artificial ”, Makron Books (1993). Capítulo 8.


Carregar ppt "Sistemas Especialistas Probabilísticos"

Apresentações semelhantes


Anúncios Google