Inteligência Artificial I

Slides:



Advertisements
Apresentações semelhantes
Inteligência Artificial
Advertisements

Construção de listas de decisão Os tópicos anteriores tratam de indução de conceitos que podem ser descritos usando uma única região de decisão Neste tópico.
Inteligência Artificial I
Inteligência Artificial
Análise de Voz e Vídeo Reconhecimento de voz baseado em modelos de palavras conectadas André Vitor de Almeida Palhares.
Inteligência Artificial I
Mineração de Dados Avaliação de Classificadores
HAC MD -junho/ Noções de algoritmos e estudo de casos das principais tarefas de Mineração de dados.
PERCEPTRON (CONTINUAÇÃO)
Inteligência Artificial I
Aprendizado de Máquinas
Algoritmos Distribuídos 1ª Lista de Exercícios Antonio Alfredo Ferreira Loureiro Departamento de Ciência da Computação Universidade.
Medida do Tempo de Execução de um Programa
Inteligência Computacional para Otimização Marcone Jamilson Freitas Souza Departamento de Computação Universidade Federal de Ouro Preto
Reconhecimento de Padrões Dissimilaridade
Jacques Robin, Francisco Carvalho, Flávia Barros
1 Projeto Filtragem de Mensagens Eletrônicas Disciplina: Inteligência Artificial Simbólica Professores: Geber Ramalho e Jacques Robin.
FACENS – Engenharia da Computação Inteligência Artificial
FACENS – Engenharia da Computação Inteligência Artificial
Desvio de Fase Não-Mínimo
Aprendizagem a partir de observações
DATA MINING Inteligência Artificial
Inteligência Artificial
INF 1771 – Inteligência Artificial
INF 1771 – Inteligência Artificial
Sistemas Inteligentes
Inteligência Artificial
Otimização Prof. Benedito C. Silva IRN UNIFEI
Departamento de Informática – Marcos Henrique Fonseca Ribeiro – Slide 1 Construindo Árvores de Decisão NoTrueHighMildRainy YesFalseNormalHotOvercast YesTrueHighMildOvercast.
Aprendizado de Árvores de Decisão
Função Hash e Autenticação em Redes de Computadores
Classificação. Classificação: Atribuição a uma classe (rótulo de um atributo categórico). Classifica dados (constrói um modelo) baseado em um conjunto.
Introdução e Busca Cega
Indução de Árvore de Decisão
Aula 5 Programação Inteira
O Processo de KDD Data Mining SUMÁRIO - AULA1 O processo de KDD
Construção e Análise de Algoritmos
Árvores de Decisão Valmir Macário.
Universidade Federal de Mato Grosso do Sul Departamento de Computação e Estatística Circuitos de Euler em Paralelo Universidade Federal de Mato Grosso.
1 Árvores de Decisão Marcílio Souto DIMAp/UFRN. 2 Árvores de Decisão – ADs (1/4) zForma mais simples: yLista de perguntas  respostas “sim” ou “não” yHierarquicamente.
Inteligência Artificial
Seleção de atributos Mariana Pinheiro Bento IA368Q.
Projeto Final MCI 2004 Filtragem de s Agente de Classificação de SPAM.
1 Introdução aos Agentes Inteligentes Inventando Funções Heurísticas Flávia Barros.
Mineração de Dados: Classificação e Predição
PROCESSAMENTO DIGITAL DE IMAGENS
FUNÇÕES TRIGONOMÉTRICAS
Geber Ramalho 1 Objetivo da aprendizagem Conhecimento em extensão (exemplos percepção-ação, características-conceitos, etc.) Conhecimento em intenção.
Classificação: conceitos básicos e árvores de decisão

Prof. Alexandre Monteiro Recife
Complexidade de Computação Katia Guimarães. Avaliando a Qualidade de um Algoritmo É preciso ter bem definido –O que é dado de entrada e –O que é esperado.
CEEIDSC Prof.: José Eustáquio Rangel de Queiroz Carga Horária: 60 h.
Inteligência Artificial I
Inteligência Artificial I
Inteligência Artificial I
Inteligência Artificial I
Inteligência Artificial I
Paradigmas de Mineração de Dados
DSC/CEEI/UFCG Joseana Macêdo Fechine Joseana Macêdo Fechine Estágio Integrado Informações Gerais Universidade.
Busca Competitiva Disciplina: Inteligência Artificial
Modulação e Demodulação Digital
Algoritmo de Transportes Objecto de Aprendizagem Manuel Pina MarquesDEIG
1 Sistemas Inteligentes Algoritmos de Melhorias Iterativas (Otimização) Flávia Barros.
Aprendizagem Simbólica
FEATURE SELECTION. Introdução  Estudo de metodologias relacionadas a seleção de atributos  Maldição da dimensionalidade  O número de atributos do desenvolvedor.
Mineração de Dados (Data Mining)
Busca Heurística Prof. Valmir Macário Filho. 2 Busca com informação e exploração Capítulo 4 – Russell & Norvig Seção 4.1 Estratégias de Busca Exaustiva.
O Método Simplex Prof. Gustavo Peixoto Silva Departamento de Computação Univ. Federal de Ouro Preto.
Inteligência Artificial I
Transcrição da apresentação:

Inteligência Artificial I Universidade Federal de Campina Grande Departamento de Sistemas e Computação Curso de Bacharelado em Ciência da Computação Inteligência Artificial I Aprendizagem (Parte II - Exemplo) Prof.a Joseana Macêdo Fechine joseana@dsc.ufcg.edu.br Carga Horária: 60 horas

Aprendizagem Tópicos Aprendizagem Árvores de decisão - Exemplo

Aprendizagem - Exemplo Construa uma Árvore de decisão (Ad) para o seguinte problema: Decidir se vou Jogar Tênis. Parâmetros do ambiente: o Aspecto do Céu, a Temperatura, a Umidade e o Vento.

Aprendizagem - Exemplo Dia Aspecto Temp. Umidade Vento Jogar Tênis D1 Sol Quente Elevada Fraco Não D2 Forte D3 Nuvens Sim D4 Chuva Ameno D5 Fresco Normal D6 D7 D8 D9 D10 D11 D12 D13 D14 Exemplos de Treinamento Fonte: GFBioinfo

Aprendizagem - Exemplo Solução: Árvore de Decisão para Jogar Tênis Aspecto Sol Nuvens Chuva Umidade Elevada Normal Vento Fraco Forte Não Sim

Aprendizagem - Exemplo Como construir a Ad? Algoritmo ID3 (inductive decision tree) - um dos mais utilizados para a construção de Ad. Passos do algoritmo: Começar com todos os exemplos de treino; Escolher o teste (atributo) que melhor divide os exemplos, ou seja agrupar exemplos da mesma classe ou exemplos semelhantes; Para o atributo escolhido, criar um nó filho para cada valor possível do atributo; Transportar os exemplos para cada filho tendo em conta o valor do filho; Repetir o procedimento para cada filho não "puro". Um filho é puro quando cada atributo X tem o mesmo valor em todos os exemplos. 

Aprendizagem - Exemplo Como escolher o melhor atributo? Entropia Ganho

Aprendizagem - Exemplo Entropia A entropia de um conjunto pode ser definida como sendo uma medida do grau de impureza do conjunto. Este conceito define a medida de "falta de informação", mais precisamente o número de bits necessários, em média, para representar a informação em falta, usando codificação ótima. Entropia é uma medida da aleatoriedade de uma variável.

Aprendizagem - Exemplo Entropia Dado um conjunto S, com instâncias pertencentes à classe i, com probabilidade pi, tem-se: Pode-se ter: S é o conjunto de exemplo de treino; p+ é a porção de exemplos positivos; p- é a porção de exemplos negativos. A Entropia(S) = 0 se existe um i tal que pi = 1 É assumido que 0 * log2 0 = 0 se p+ = 1, por exemplo, o receptor sabe que o exemplo tirado será positivo, assim não há necessidade de enviar mensagem, e a entropia é zero.

Aprendizagem - Exemplo Entropia Variação da Entropia a medida que a proporção de positivos e negativos se altera.

Aprendizagem - Exemplo Se p é 1, o destinatário sabe que o exemplo selecionado será positivo Nenhuma mensagem precisa ser enviada Entropia é 0 (mínima) Se p é 0.5, um bit é necessário para indicar se o exemplo selecionado é  ou  Entropia é 1 (máxima) Se p é 0.8, então uma coleção de mensagens podem ser codificadas usando-se - em média menos de um bit - códigos mais curtos para  e mais longos para  Entropia(S) => especifica o número mínimo de bits de informação necessário para codificar uma classificação de um membro arbitrário de S.

Aprendizagem - Exemplo Ganho Define a redução na entropia. Ganho(S,A) significa a redução esperada na entropia de S, ordenando pelo atributo A. Para responder à pergunta anterior, "Como escolher o melhor atributo?" é usado o ganho. Em cada iteração do algoritmo é escolhido o atributo que apresente uma maior ganho. Obs.: valores(A) é o conjunto de todos possíveis valores para o atributo A, e Sv é o subconjunto de S para qual o atributo A tem valor v.

Aprendizagem - Exemplo Entropia - medida da impureza do conjunto de treino. Assumindo o valor máximo (1) quando existem tantos elementos positivos como negativos, e o valor mínimo (0) quando todos os elementos são da mesma classe. Ganho de informação - redução esperada no valor da Entropia, devido à ordenação do conjunto de treino segundo os valores do atributo A.

Aprendizagem - Exemplo Primeiro passo: são analisados todos os atributos, começando pela Umidade. Umidade ? Elevada Normal [3+, 4-] [6+, 1-] E=0,985 E=0,592 Obs.:

Aprendizagem - Exemplo Calculando o ganho para todos os atributos  o que o tem maior ganho é o Aspecto. Aspecto Sol Nuvens Chuva [2+, 3-] [4+, 0-] E=0,971 E=0 E=0,971 [3+, 2-] P+=1

Aprendizagem - Exemplo No próximo passo o atributo Aspecto já não é considerado. Aspecto Sol Nuvens Chuva ? Sim [2+, 3-] [4+, 0-] [3+, 2-] [9+, 5-] [D1, D2, ..., D14] SSol =[D1, D2, D8, D9, D11] SNuvens =[D3, D7, D12, D13] SChuva =[D4, D5, D6, D10, D14]

Aprendizagem - Exemplo Quando em todos os nós a entropia for nula, o algoritmo para e obtêm-se a seguinte Árvore de decisão: Aspecto Sol Nuvens Chuva Umidade Elevada Normal Vento Fraco Forte Não Sim [D1, D2, ..., D14] SNuvens =[D3, D7, D12, D13] SSol,Elevada=[D1, D2, D8] SSol,Normal=[D9, D11] SChuva,Fraco=[D6, D14] SChuva,Forte=[D4, D5, D10]

Aprendizagem - Exemplo Exemplo de implementação: http://www.cs.ualberta.ca/%7Eaixplore/learning/DecisionTrees/Applet/DecisionTreeApplet.html