A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Incerteza Capítulo 13 IA - Mestrado FEI. Outline incerteza Probabilidade Sintaxe e Semântica Inferência Independência e Regra de Bayes.

Apresentações semelhantes


Apresentação em tema: "Incerteza Capítulo 13 IA - Mestrado FEI. Outline incerteza Probabilidade Sintaxe e Semântica Inferência Independência e Regra de Bayes."— Transcrição da apresentação:

1 Incerteza Capítulo 13 IA - Mestrado FEI

2 Outline incerteza Probabilidade Sintaxe e Semântica Inferência Independência e Regra de Bayes

3 incerteza Seja a ação A t = sair para o aeroporto t minutos antes do vôo. A t me levará ao aeroporto a tempo? Problemas: 1. Estados parcialmente observáveis (estado das estradas, tráfego, outros planos, etc.) 2. Sensores ruidosos (relatórios de trafego) 3. incerteza quanto aos efeitos das ações (pneu furado, etc.) 4. Grande complexidade em modelar e prever trafego Assim, um procedimento puramente lógico 1. Riscaria deduzir algo potencialmente falso: A 25 me levará a tempo, ou 2. Levaria a conclusões muito fracas para tomada de decisões: A 25 me levará a tempo, se nenhum acidente ocorrer na ponte, e se não chover, e se nenhum pneu furar, e... (A 1440 poderia ser um solução lógica razoável, porém eu teria que passar a noite no aeroporto)

4 Métodos para lidar com incerteza Default ou lógica não monotônica: –Assuma que o carro não possua um pneu furado; –Assuma que A 25 funcionaria a menos que haja evidência do contrário; ! Quais (e quantas) hipóteses são razoáveis? Como manipular conclusões falhas? Regras com fatores de incerteza: –A 25 |-> 0.3 chegar ao aeroporto a tempo –mangueira |-> 0.99 grama molhada –Grama molhada |-> 0.7 chuva ! Problemas com a combinação de regras contraditórias: A mangueira causa chuva??

5 Métodos para lidar com incerteza Probabilidade –Modela o grau de crença de um agente –Dado evidências disponíveis –A 25 chegará ao aeroporto a tempo com probabilidade 0.04 (Fuzzy manipula o grau de veracidade NÃO incerteza. E.g. Grama está molhada é verdade com um grau de 0.2)

6 Probabilidade A probabilidade proporciona um meio para resumir a incerteza que vem de nossa: –preguiça: falha em numerar todas as exceções, antecedentes ou consequêntes para assegurar uma regra sem exceções –ignorância: falta de conhecimento sobre fatos relevantes, condições iniciais, etc. Probabilidade subjetiva ou Bayesiana: Probabilidade se relaciona a proposições sobre o estado de crença do agente e.g., P(A 25 | no reported accidents) = 0.06

7 Probabilidade Proposições probabilísticas não são proposições sobre o mundo! Portanto o compromisso ontológico da teoria da probabilidade é o mesmo da lógica clássica: –As sentenças são verdadeiras ou falsas: Atribuir prob. 0 (1) a S significa na crença inequívoca de que S é falsa (verdadeira) –(fuzzy assume um outro compromisso...)

8 Probabilidade A probabilidade de uma sentença depende das percepções que o agente recebeu até o momento (evidências) Portanto, probabilidades mudam a partir de novas evidências: –e.g., P(A 25 | nenhum acidente, 5 a.m.) = 0.15 [ Isso é análogo à relação de conseqüência lógica: BC |= a ] Todas as declarações de probabilidade devem indicar a evidência de acordo com a qual a prob. está sendo avaliada.

9 Decisões sob incertezas Suponha o seguinte conjunto de crenças: P(A 25 chega a tempo | …) = 0.04 P(A 90 chega a tempo| …) = 0.70 P(A 120 chega a tempo| …) = 0.95 P(A 1440 chega a tempo| …) = Que ação tomar? Depende de minhas preferências sobre perder o vôo vs. tempo esperando, etc. –Teoria da utilidade representa preferências (todo estado tem um grau de utilidade) –Teoria da Decisão = teoria da probabilidade + teoria da utilidade

10 Introdução à probabilidade: Proposições: graus de crença são aplicados a proposições (afirmação sobre uma situação) Elemento básico: variável aleatória – algo que se refere a uma parte do mundo cujo status é inicialmente desconhecido; Domínio V. aleatórias booleanas: e.g., Carie = V. aleatórias discretas: e.g., Clima possui valores em V. aleatórias contínuas: e.g., temperatura –Valores do domínio devem ser exaustivos e mutuamente exclusivos

11 Introdução à probabilidade: Evento Atômico: Especificação completa do estado do mundo sobre o qual o agente está inseguro. –Uma atribuição de valores específicos a TODAS as variáveis as quais o mundo é formado –mutuamente exclusivos (no máximo um deles pode ocorrer em cada instante) –exaustivos: pelo menos um deles tem que ocorrer

12 Evento atômico: exemplo Se o mundo consistir somente de 2 var. booleanas Carie e DordeDente, então há quatro eventos atômicos distintos: Cárie = false DordeDente = false Carie = false DordeDente = true Cárie = true DordeDente = false Cárie = true DordeDente = true

13 Axiomas de probabilidade Para quaisquer proposições A, B –0 P(A) 1 –P(verdade) = 1 e P(falso) = 0 (proposições neces. verdadeiras -- válidas -- prob=1 e proposições neces. falsas – não satisfatíveis -- prob.=0) –P(A B) = P(A) + P(B) - P(A B)

14 probabilidade A probabilidade de uma proposição é igual à soma das probabilidades dos eventos atômicos em que ela é válida: P(a) = ei e(a) P(e i ) Essa equação fornece um método simples de calcular a probabilidade de qqr proposição dada uma distr. conjunta total que especifique todos os eventos atômicos.

15 Probabilidade incondicional ou a priori É o grau de crença acordado para uma proposição na ausência de quaisquer outras informações e.g., P(Carie = verdadeiro) = 0.1 and P(Clima = ensolarado) = 0.72 Distribuição de Probabilidades: todos os valores de uma variável aleatória: P(Clima) = (normalizado, i.e., soma da 1) Distribuição de probabilidade conjunta: probabilidades de todas as combinações de valores de um conjunto de variáveis aleatórias P(Clima,Carie) = tabela 4 × 2 de valores: Weather =sunnyrainycloudysnow Cavity = true Cavity = false

16 Probabidade incondicional ou a priori Uma distribuição conjunta total especifica a probabilidade de todo evento atômico e é, portanto, uma especificação completa da incerteza sobre o mundo. Qualquer questão sobre um domínio pode ser respondida a partir de sua distribuição conjunta total.

17 Probabilidade Condicional ou posterior Uma vez que alguma evidência relativa às variáveis aleatórias é conhecida, as prob. a priori não são mais aplicáveis. Em vez disso, devemos usar as probabilidades Condicionais ou posteriores e.g., P(carie | dordeDente) = 0.8 i.e., dado que dordeDente é tudo o que se sabe a respeito de carie Distribuições condicionais: P(X | Y) = fornece o conjunto de valores de P(X = xi| Y = yj) para cada i, j possível E se sabemos também que cárie é verdade: P(carie | dordeDente,cárie) = 1 Novas evidências podem ser irrelevantes, –portanto,e.g., P(carie|dordeDente, ensolarado) =P(carie | dordeDente) = 0.8

18 Probabilidade Condicional Podem ser definidas em termos de prob. a priori: P(a | b) = P(a b) / P(b) if P(b) > 0 Regra do produto provê uma definição alternativa: P(a b) = P(a | b) P(b) = P(b | a) P(a) Isso pode ser generalizado para distribuições totais: e.g. P(Clima,Carie) = P(Clima | Carie) P(Carie) (que é um conjunto de 4 × 2 equações, não uma multiplicação matricial.) Regra da cadeia é obtida a partir de aplicações sucessivas da regra do produto: P(X 1, …,X n ) = P(X 1,...,X n-1 ) P(X n | X 1,...,X n-1 ) = P(X 1,...,X n-2 ) P(X n-1 | X 1,...,X n-2 ) P(X n | X 1,...,X n-1 ) = … = i= 1 ^n P(X i | X 1, …,X i-1 )

19 Inferência Probabilística Inferência probabilística: a computação da evidência observada de probabilidades posteriores para proposições de consulta; Inferência com o uso de distribuições conjuntas totais: base de conhecimento a partir da qual são derivadas respostas para todas as perguntas.

20 Inferência Probabilística Iniciamos com um exemplo em que Cavity = Carie, Toothache = DordeDente, Catch = Boticão. E a seguinte distribuição conjunta total deste domínio: Para qqr proposição a, P(a) é a soma dos eventos atômicos w onde a ocorre: P(a) = w:w|=a P(w)

21 Inferência Probabilística Iniciamos com um exemplo em que Cavity = Carie, Toothache = DordeDente, Catch = Boticão. E a seguinte distribuição conjunta total deste domínio: Para qqr proposição a, P(a) é a soma dos eventos atômicos w onde a ocorre: P(a) = w:w|=a P(w) P(toothache)= = 0.2

22 Inferência Probabilística Iniciamos com um exemplo em que Cavity = Carie, Toothache = DordeDente, Catch = Boticão. E a seguinte distribuição conjunta total deste domínio: Para qqr proposição a, P(a) é a soma dos eventos atômicos w onde a ocorre: P(a) = w:w|=a P(w) P(toothache v carie)= = 0.28

23 Podemos calcular probabilidades condicionais: P( cavity|toothache) = P( cavity toothache) P(toothache) = = 0.4 Inferência Probabilística

24 O denominador pode ser visto como uma constante de normalização P(Cavity | toothache) = P(Cavity,toothache) = [P(Cavity,toothache,catch) + P(Cavity,toothache, catch)] = [ + ] = = Idéia geral: computar a distribuição sobre a variável de consulta fixando as variáveis de evidências e somando sobre as variáveis ocultas.

25 Inferência probabilística inferência por enumeração Objetivo: calcular a distribuição de probabilidades das variáveis de consulta X (ex. Cavity), dados valores específicos e (ex. Toothache) para as variáveis de evidência E. Seja Y as variáveis restantes não observadas (ex. Catch). A consulta P(X|e) pode ser avaliada como: P(X|e) = y P(X, e, y) Note que, juntas, as var. X, E e Y constituem o conjunto completo de var. para o domínio; assim, P(X, e, y) é simplesmente um subconjunto de probabilidades a partir da distribuição conjunta total.

26 Problemas com inf. por enumeração Complexidade de tempo (pior caso): O(d n ) –Onde d é a cardinalidade do maior domínio e n é o número de variáveis. Complexidade de espaço O(d n ) para armazenar a distribuição conjunta Como encontrar as probabilidades para O(d n ) elementos??

27 Independência A e B são independentes sse P(A|B) = P(A) ou P(B|A) = P(B) ou P(A, B) = P(A) P(B) P(Toothache, Catch, Cavity, Weather) = P(Toothache, Catch, Cavity) P(Weather) 32 entradas reduzidas a 12; – n lançamentos independentes de moedas O(2 n ) O(n) Independência absoluta é rara. Odontologia é uma área com centenas de variáveis, nenhuma das quais absolutamente independente. O que fazer?

28 Independência Condicional Se eu tenho cárie, a probabilidade do boticão acertar esse dente não depende de minha dor de dente: (1) P(catch | toothache, cavity) = P(catch | cavity) A mesma independência ocorre se eu não tiver uma cárie: (2) P(catch | toothache, cavity) = P(catch | cavity) I.e. Catch (Boticão) é condicionalmente independente da dordeDente dado Cárie: P(Catch | Toothache,Cavity) = P(Catch | Cavity) Sentenças Equivalentes : P(Toothache | Catch, Cavity) = P(Toothache | Cavity) P(Toothache, Catch | Cavity) = P(Toothache | Cavity) P(Catch | Cavity)

29 Independência Condicional Escrevendo toda a distribuição total utilizando a regra da cadeia: P(Toothache, Catch, Cavity) = P(Toothache | Catch, Cavity) P(Catch, Cavity) = P(Toothache | Catch, Cavity) P(Catch | Cavity) P(Cavity) = P(Toothache | Cavity) P(Catch | Cavity) P(Cavity) Na maioria dos caso, o uso da independência condicional reduz o tamanho da representação em distribuição conjunta de exponencial em n para linear em n.

30 Bayes' Rule Da regra do produto P(a b) = P(a | b) P(b) = P(b | a) P(a) Regra de Bayes: P(a | b) = P(b | a) P(a) / P(b) Ou na forma da distribuição conjunta: P(Y|X) = P(X|Y) P(Y) / P(X) = P(X|Y) P(Y) Útil para acessar regras probabilísticas de diagnóstico através de probabilidades causais: –P(Cause|Effect) = P(Effect|Cause) P(Cause) / P(Effect) –E.g., let M be meningitis, S be stiff neck: P(m|s) = P(s|m) P(m) / P(s) = 0.8 × / 0.1 = –Note: posterior probability of meningitis still very small

31 Regra de Bayes e Independência Condicional P(Cavity | toothache catch) = P(toothache catch | Cavity) P(Cavity) = P(toothache | Cavity) P(catch | Cavity) P(Cavity) Este é um exemplo de um modelo de Bayes Ingênuo: P(Cause,Effect 1, …,Effect n ) = P(Cause)x i P(Effect i |Cause) O número total de parâmetros é linear n

32 Ex1 - Assuma varias bolas coloridas contidas em três caixas B1, B2 e B3 distintas e indistinguíveis. As bolas estão distribuídas da seguinte forma dentro das caixas : –Uma caixa é selecionada aleatoriamente, dentro da qual uma bola é selecionada aleatoriamente. A bola retirada é vermelha. Qual é a probabilidade posterior da caixa selecionada ser B1? Explique. B1B2B3 vermelha243 branca324 Azul633

33 4)[Uncertainty] (2.0) Sejam as seguintes variáveis: F = teve gripe S = tomou a vacina contra gripe –Assuma os seguintes resultados médicos: P(F) = 0.75 P(S) = 0.5 P(F|S) = 0.1 –Dado que você sabe que alguem está com gripe, qual é a probabilidade desta pessoa ter tomado a vacina contra gripe? Explique os seus cálculos.

34 (13.11) Suponha que você receba uma bolsa com n moedas imparciais. Você é informado de que n-1 dessas moedas são normais, com cara de um lado e coroa no outro, enquanto uma moeda é falsa, com cara em ambos os lados. –a)Suponha que você enfie a mão na bolsa, escolha uma moeda uniformemente ao acaso, lance a moeda e obtenha como resultado cara. Qual é a probabilidade (condicional) de que a moeda escolhida seja a moeda falsa? –b) Suponha que você continue lançando a moeda até um total de k vezes depois de escolhe-la e veja k caras. Qual é a probabilidade condicional desta ser a moeda falsa?


Carregar ppt "Incerteza Capítulo 13 IA - Mestrado FEI. Outline incerteza Probabilidade Sintaxe e Semântica Inferência Independência e Regra de Bayes."

Apresentações semelhantes


Anúncios Google