A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Prof. Francisco de A. T. de Carvalho

Apresentações semelhantes


Apresentação em tema: "Prof. Francisco de A. T. de Carvalho"— Transcrição da apresentação:

1 Prof. Francisco de A. T. de Carvalho fatc@cin.ufpe.br
Clustering Prof. Francisco de A. T. de Carvalho

2 O que é Análise de Agrupamentos?
Cluster: um grupo de objetos Similares entre si quando no mesmo grupo Dissimilares em relação a objetos em outros grupos Análise de Agrupamentos Agrupamento de objetos em grupos Agrupamento é um método de classificação não supervisionada: as classes não são definidas previamente Aplicações típicas Como uma ferramenta autonoma para obter pistas sobre a distribuição de dados Como uma etapa de preprocessamento para outros algoritmos

3 Aplicações de Clustering
Reconhecimento de Padrões Análise de Dados Espacial detecte clusters espaciais e explique-os no contexto da mineração de dados espaciais Processamento de Imagens Economia (especialmente pesquisa de mercado) WWW Classificação de documentos Agrupamento de dados provenientes do Weblog para descobrir grupos de acesso similares

4 Exemplos de Aplicações de Clustering
Marketing: Ajuda os marqueteiros a descobrir grupos de clientes e usa esse conhecimento para orientar as campanhas publicitárias Solo: Identificação de áreas de propriedades similares Seguro: Identificação de grupos de segurados com um custo médio elevado de reembolso Planejamento Urbano: Identificação de grupos de habitação segundo o tipo, valor e localização geográfica

5 O que é um bom agrupamento?
Um bom método de agrupamento fornece grupos de alta qualidade com Alta similaridade intra-grupo baixa similaridade inter-grupo A qualidade do resultado de um agrupamento depende tanto da medida de similaridade usada pelo método como da sua implementação. A qualidade de um método de agrupamento é também medido pela sua habilidade para descobrir os padrões escondidos.

6 Requirementos para Clustering em Data Mining
Scalabilidade Abilidade para tratar com diferentes tipos de atributos Descoberta de grupos de forma arbitrária Requerimentos mínimos do conhecimento do dominio em relação aos parâmetros de entrada Capaz de tratar ruidos e valores aberrantes Insensível à ordem dos registros de entrada Alta dimensionalidade Incorporação de restrições fornecidas pelo usuário Interpretabilidade e usabilidade

7 Principais Etapas da Formação de Agrupamentos
a) aquisição dos dados 1) Seleção das observações (indivíduos, objetos, casos, itens) 2) Seleção das variáveis (caracteres, descritores) e das correspondentes escalas 3) Construção da Tabela de Dados b) Pré-processamento dos dados 1) Mudança de escala 2) Normalização 3) Extração de caracteres

8 Principais Etapas da Formação de Agrupamentos
c) Construção da Tabela de Dados d) Cálculo da Proximidade 1) Escolha de um Índice de Proximidade 2) Construção da Matriz de Proximidades e) Seleção de um Algoritmo de Formação de Grupos em função do tipo de agrupamento desejado f) Análise e Interpretação dos Resultados

9 A Representação dos Dados
Matrix de Dados Matrix de Dissimilaridade

10 Medida da Qualidade de um Agrupamento
Proximidade: é uma função que mede a similaridade ou a dissimilaridade entre um par de observações Uma função a parte mede a qualidade de um grupo. As funções de proximidade dependem da escala das variáveis: proporcional, intervalar, ordinal, nominal, binária, mista Pode-se associar pesos as variáveis como conheciemento do domínio. É extremamente difícil definir o que são dois objetos “bastante similares” a resposta é quase sempre subjetiva.

11 Tipos de Dados Variáveis de escala intervalar: Variáveis Binárias:
Variáveis Nominais, Ordinais, Proporcionais: Variáveis de tipo mixto:

12 Variáveis de escala intervalar
Padronização Calcule o desvio médio absoluto: onde Calculale a medida padronizada (z-escore) O desvio médio absoluto é mais robusto do que o desvio padrão

13 Dissimilaridade entre objetos
Distancias são normalmente usadas como medida de dissimilaridade entre objetos Entre as mais populares: distancia de Minkowski onde i = (xi1, xi2, …, xip) e j = (xj1, xj2, …, xjp) são dois vetores p-dimensionais, e q é um inteiro positivo Se q = 1, d é a distância de Manhattan

14 Dissimilaridade entre objetos
Se q = 2, d é a distância: Properties d(i,j)  0, d(i,i) = 0, d(i,j) = d(j,i) d(i,j)  d(i,k) + d(k,j) Outras alternativas: distância ponderada, correlação (similaridade), etc.

15 Variávais binárias Tabela de contingencia para dados binários
Simple matching (invariante, se a variável binaria é simetrica): Jaccard (não invariante se a variável binaria é asimetrica) Objeto j Objeto i

16 Variáveis Nominais Variável de escala nominal que pode assumir mais de 2 categorias, e.x., vermelho, amarelo, azul, verde Metodo 1: Concordancias simples m: # das concordancias, p: numero de variáveis Metodo 2: usa um grande numero de variáveis binárias Criação de uma nova variável binária para cada uma das M categorias

17 Variáveis ordinais Uma variável ordinal pode ser qualitativa ou quantitativa A ordem é importante, e.x., rank Pode ser tratada como uma variável de escala intervalar Trocando xif pelo seu rank Mapear a amplitude de cada variável em [0, 1] trocando rif por Calcular a dissimilaridade usando os métodos das variáveis de escala intervalar

18 Variáveis de escala proporcional
variável de escala proporcional: medida em uma escala não linear, aproximadamente exponencial, tal como AeBt ou Ae-Bt Metodos: Trata-las como variáveis de escala intervalar — não é uma boa escolha! (porque?) Aplicar uma tansfirmação logaritmica yif = log(xif) Trata-las como os dados ordinais quantitativos tratam os seus ranks como escala intervalar.

19 Variaveis de vários tipos
Uma base de dados pode conter todos os 6 tipos: simetrica binaria, assimetrica binária, nominal, ordinal, intervalar e proporcional. Pode-se usar uma expressão ponderada para combina-las. f é binária ou nominal: dij(f) = 0 se xif = xjf , ou dij(f) = 1 senão f é intervalar: use a distancia normalizada f é ordinal ou de escala proporcional Calcule ranks rif e E trate zif como intervalar

20 Outros aspectos relativos aos índices de proximidade
Escala das Variáveis Correlação entre as Variáveis Descrições heterogêneas (Variáveis de diferentes tipos) Índices de proximidade entre padrões descritos por strings ou árvores Índices de proximidade dependentes do contexto Índices de proximidade conceptual

21 Estruturas classificatórias
Cobertura Partição

22 Estruturas Classificatórias
Hierarquia Piramide

23 Métodos de Agrupamento Em Taxinomia Numérica distingue-se três grupos de métodos Técnicas de Otimização Objetivo: obter uma partição. Número de grupos fornecido pelo usuário Técnicas hierárquicas Objetivo: obter uma hierarquia (ou uma pirâmide) Pode-se obter uma partição “cortando-se” a hierarquia em um determinado nível.

24 Métodos de Agrupamento Técnicas de Cobertura Objetivo: obter grupos que eventualmente podem partilhar indivíduos. Outros Aspectos Relativos aos Métodos de Agrupamento Métodos Aglomerativos versus Métodos Divisivos Métodos Monotéticos versus Métodos Politeticos

25 Outros Aspectos Relativos aos Métodos de Agrupamento Agrupamento Hard versus Agrupamento Fuzzy Métodos Incrementais versus Métodos não Incrementais Métodos Paramétricos versus Métodos não Paramétricos Métodos Geométricos versus Métodos não Geométricos

26 Principais Métodos de Agrupamento
Métodos que fornecem uma partição: Construa várias partições que são então avaliadas segundo algum critério Métodos Hierarquicos: Fornece uma decomposição hierarquica dos objetos segundo um critério particular Métodos de Densidade: basedos em conectividade e funções de densidade Grid: baseado em estruturas de níveis de granularidade multipla Modelo: Supõe-se um modelo para cada cluster e tenta-se achar o melhor ajustamento entre o modelo e o cluster

27 Métodos que fornecem uma partição: Conceitos básicos
Métodos que fornecem uma partição: Produz uma partição de uma base de dados D de n objetos em k grupos Dado k, encontre uma partição em k grupos que otimiza um dado critério Otimo global: enumeração exaustiva de todas as partições Heuristicas: k-means e k-medoids k-means (MacQueen’67): Cada grupo é representado pelo seu centro k-medoids ou PAM (Partition around medoids) (Kaufman & Rousseeuw’87): Cada grupo é representado por um objeto no grupo

28 O Método K-Means Dado k, o algoritmo k-means é implementado em 4 passos: Partição dos objetos em k grupos não vazios Defina as sementes como os centroides dos grupos da partição atual. Afete cada objeto ao grupo cuja semente é a mais próxima ao mesmo. Volte para o passo 2, pare quando não houver novas afetações.

29 O Método K-Means Exemplo

30 Comentários sobre o método K-Means
Pontos fortes Relativamente eficiente: O(tkn), onde n é # objetos, k é # grupos, e t é # iterações. Normalmente, k, t << n. Frequentemente termina em um otimo local. O otimo global pode ser encontrado usando tecnicas tais como: deterministic annealing e algoritmos geneticos Pontos fracos Aplicavel apenas quando a média é definida, o que fazer com dados categóricos? É necessário especificar a priori k, o número de grupos É sensível a ruidos e valores aberrantes Não é apropriado para a descoberta de grupos não esféricos

31 Variantes do K-Means Algumas variantes do k-means diferem em
Seleção das k medias iniciais Calculo das dissimilaridades Estratégias para calcular as médias dos grupos Dados categóricos: k-modas (Huang’98) Troca das medias pelas modas dos grupos Uso de novas medidas de dissimilaridade para tratar dados categóricos Uso de um método baseado na frequencia para atualizar as modas Mistura de dados categóricos e numéricos: método k-prototype

32 O MétodoK-Medoids Encontre objetos representativos, chamados medoids, nos grupos PAM (Partitioning Around Medoids, 1987) Inicie com um conjunto inicial de medoids e iterativamente troque um deles por um não medoide se a distancia total do agrupamento melhora PAM funciona para conjuntos de dados pequenos, mas não possui escalabilidade suficiente para os grandes CLARA (Kaufmann & Rousseeuw, 1990) CLARANS (Ng & Han, 1994): Amostragem aleatória

33 PAM (Partitioning Around Medoids) (1987)
PAM (Kaufman et al, 1987), implementado em Splus Usa objetos reais para representar os grupos Selecione k objetos representativos arbitrariamente Para cada par de objetos não selecionados h e selecionados i, calcule o custo total de troca TCih Para cada par i e h, Se TCih < 0, i é trocado por h Afete cada objeto não selecionado ao objeto representativo mais similar Repita os passos 2-3 até que não haja mais mudança

34 CLARA (Clustering Large Applications) (1990)
CLARA (Kaufmann and Rousseeuw in 1990) Implementado em pacotes estatísticos, tais como S+ Seleciona multiplas amostras dos dados, aplica PAM em cada amostra, e fornece o melhor agrupamento Força: se aplica a conjuntos de dados maiores do que PAM Fraquezas: A eficiencia depende do tamanho da amostra Um bom agrupamento com base em amostras não representa necessariamente um bom agrupamento do conjunto de dados se a amostra é viesada

35 CLARANS (“Randomized” CLARA) (1994)
CLARANS seleciona amostras de vizinhos dinamicamente O processo de agrupamento pode ser apresentado como uma busca em um grafo onde cada nó é uma solução potencial, isto é, um conjunto de k medoids Se o ótimo local é encontrado, CLARANS recomeça com novos nós selecionados dinamicamente na busca por um novo ótimo local É mais eficiente e escalavel do que PAM e CLARA

36 Métodos Paramétricos Modelo: Mistura finita de distribuições Mistura: conjunto de k distribuições de probabilidade que representam k grupos e que determinam os valores dos atributos para os membros de um grupo Cada distribuição fornece a probabilidade de que uma instancia particular apresente um certo conjunto de valores caso se saiba que ela pertence a um dado grupo A cada grupo é associado uma distribuição distinta

37 Métodos Paramétricos Uma instancia pertence a apenas um grupo, mas não se sabe qual Os grupos não são igualmente prováveis Situação mais simples: um atributo numérico com distribuição normal para cada grupo, mas com diferentes médias e variâncias Problema: a partir de um conjunto de instancias inferir a media e a variância de cada grupo (distribuição)

38 Métodos Paramétricos Exemplo: Dois grupos A e B de distribuição normal com médias e desvios-padrão A e A para A e B e B para B Seleciona-se instancias dessas distribuições (de A com probabilidade pA e de B com probabilidade pB) Dados: (A,51), (A,43), (B,62), (B,64), (A,45), (A,42), (A,46), (A,45), (A,45), (B,62), (B,47), (A,52), (B,64), (A,51), (B,65), (A,48), (A,49), (A,46), (B,64), (B,51) Problema: Imagine os dados sem as classes (rótulos) e suponha que se queira determinar os parâmetros A, A, B, B, pA e pB

39 Métodos Paramétricos Conhecendo-se as classes das instancias esses parâmetros seriam facilmente estimados: pA e pB são estimados pela proporção das instancias em cada grupo A e B Conhecendo-se esses parâmetros, dada uma instancia x, a probabilidade de que ela seja do grupo A é

40 Métodos Paramétricos Abordagem probabilista Os dados D são uma mistura de k distribuições normais uni-variadas de mesma variância 2 Cada observação é descrita pelo vetor (xi, zi1, …, zik), onde a) xi é o valor da i-ésima observação; b) zij = 1 se a observação é proveniente do j-ésimo grupo e zij = 0, senão Diz-se também que xi é a variável observada e zi1, …, zik são as variáveis ocultas

41 Métodos Paramétricos Abordagem probabilista Trata-se de estimar (aprender) as médias de cada uma das k distribuições normais: Encontrar a hipótese h = < 1,…, k > que maximiza a verossimilhança dessa médias, isto é, encontrar a hipótese h = < 1… k > que maximiza p(D/h)

42 Métodos Paramétricos O Algoritmo EM (Expectation, Maximisation) Inicialização: h = < 1,…, k >, onde 1,…, k são valores iniciais arbitrários Etapa 1: Calcular o valor esperado E[zij] de cada variável oculta zij, supondo verdadeira a hipótese atual h = < 1,…, k >

43 Métodos Paramétricos O Algoritmo EM (Expectation, Maximisation) E[zij] é a probabilidade de que a observação xi tenha sido gerada pela j-ésima distribuição normal

44 O Algoritmo EM (Expectation, Maximisation) Etapa 2: Calcular a nova hipótese h’ = < ’1,…, ’k > de máxima verossimilhança, supondo que os valores de cada variável oculta zij é o seu valor esperado E[zij] calculado no Passo 1. Substituir a hipótese h = < 1,…, k > pela hipótese h’ = < ’1,…, ’k > e recomeçar.

45 O Algoritmo EM (Expectation, Maximisation) Nesse caso, a hipótese de máxima verossimilhança é dada por: Esse algoritmo converge para uma hipótese h que representa um máximo de verossimilhança local

46 Métodos Hierarquicos aglomerativo (AGNES) a a b b a b c d e c c d e d
Usa uma matriz de distancias como critério de agrupamento. Esse métodos não requerem o número de grupos k como entrada, mas precisa de uma condição de parada Step 0 Step 1 Step 2 Step 3 Step 4 b d c e a a b d e c d e a b c d e aglomerativo (AGNES) divisivo (DIANA)

47 AGNES (Agglomerative Nesting)
Introduzido por Kaufmann and Rousseeuw (1990) Implementado em pacotes estatísticos, e.x., Splus Usa o método Single-Link e a matriz de dissimilaridade. Fusiona nós que tem as menores dissimilaridades Eventualmente todos os nós pertencem ao mesmo grupo

48 Um Dendrograma mostra como os grupos são fusionados hierarquicamente
Decompõe os objetos em vários níveis de partições embutidas (árvore de grupos, chamado de dendrograma). Um agrupamento dos objetos é obtido pelo corte do dendrograma em um nível desejado e então cada componente conectado forma um grupo.

49 DIANA (Divisive Analysis)
Introduzido por Kaufmann and Rousseeuw (1990) Implementado em pacotes estatísticos, ex., Splus Ordem inversa de AGNES Eventualmente cada nó forma um grupo unitário

50 Métodos Hierarquicos Pontos fracos dos métodos aglomerativos de agrupamento Não são escalaveis: complexidade em tempo pelo menos em O(n2), onde n é o número total de objetos Nunca pode desfazer o que já fez previamente Integração de agrupamentos hierárquicos com agrupamentos baseado em distancias BIRCH (1996): usa árvore CF e ajusta incrementalmente a qualidade dos subgrupos CURE (1998): seleciona pontos bem espalhados do grupo e então encolhe-os para o centro dos grupos segundo uma fração especificada CHAMELEON (1999): agrupamento hierárquico usando modelagem dinamica

51 BIRCH (1996) Birch: Balanced Iterative Reducing and Clustering using Hierarchies, by Zhang, Ramakrishnan, Livny (SIGMOD’96) Constroi incrementalmente uma árvore CF (Clustering Feature) Fase 1: scanear a DB para contruir uma árvore CF inicial em memoria Fase 2: usa um algoritmo arbitrário de agrupamento para fusionar os nos da árvore CF Escalabilidade linear: encontra bons grupos com um simples escaneamento e melhora a qualidade dos mesmos com alguns escaneamentos adicionais Fraqueza: trata apenas de dados numéricos, é sensível a ordem em que os dados são registrados.

52 Vetor Clustering Feature
Clustering Feature: CF = (N, LS, SS) N: Numero de objetos LS: Ni=1=Xi SS: Ni=1=Xi2 CF = (5, (16,30),(54,190)) (3,4) (2,6) (4,5) (4,7) (3,8)

53 Árvore CF Raíz CF1 CF3 CF2 CF6 B = 7 L = 6 nó CF1 CF2 CF3 CF5 folha
child1 CF3 child3 CF2 child2 CF6 child6 B = 7 L = 6 CF1 CF2 CF3 CF5 child1 child2 child3 child5 folha folha prev CF1 CF2 CF6 next prev CF1 CF2 CF4 next

54 CURE (Clustering Using REpresentatives )
CURE: proposto por Guha, Rastogi & Shim, 1998 Para a criação de uma hierarquia de grupos se um nível consiste de k grupos Usa multiplos pontos representativos para avaliar a distancia entre grupos, se ajusta bem a grupos de forma arbitrária e evita os efeitos la ligação simples (single-link) Inconvenientes dos métodos de agrupamento baseados em distancia Considera apenas um ponto como o representante de um grupo Bom apenas para formas convexas, tamanho e densidade similar, e se k pode ser estimado razoávelmente

55 Cure: Algoritmo Tiragem de uma amostra aleatória s.
Particionar a amostra em p partições de tamanho s/p Agrupar parcialmente as partições em s/pq grupos Eliminar valores aberrantes Por amostragem aleatória Se um grupo cresce muito lentamente, elimina-lo. Agrupar grupos parciais. Rotular os dados no disco

56 CHAMELEON CHAMELEON: G. Karypis, E.H. Han and V. Kumar’99
Mede a similaridade baseda em um modelo dinamico 2 grupos são fusionados apenas se a interconectividade e proximity entre 2 grupos são altas em relação a interconectividade interna dos grupos e a proximidade dos itens nos grupos Um algoritmo de 2 fases 1. Usa um algoritmo de particionamento de um grafo: agrupa objetos em um grande número de sub-grupos relativamente pequenos 2. Usa um algoritmo hierarquico aglomerativo: encontra os verdadeiros grupos pela fusão desses sub-grupos

57 Contexto global de CHAMELEON
Construção de Um grafo esparço Partição do grafo Dados Fusão da Partição Grupos finaiss

58 Métodos baseados em Densidade
Agrupamento baseado em densidade (critério de cluster local, tal como a densidade de pontos conectados Caracteristicas princiapais: Descoberta de grupos de forma arbitrária Tratamento de ruido Apenas uma escaneada É necessário parametros de densidade como condição de parada Várias abordagens: DBSCAN: Ester, et al. (KDD’96) OPTICS: Ankerst, et al (SIGMOD’99). DENCLUE: Hinneburg & D. Keim (KDD’98) CLIQUE: Agrawal, et al. (SIGMOD’98)

59 Preliminares 2 parametros:
Eps: Raio máximo da vizinhança MinPts: Número de pontos minimo em um Eps desse ponto NEps(p): {q pertence a D | dist(p,q) <= Eps} Um ponto p é diretamente alcançavel pela densidade de um ponto q Eps, MinPts se 1) p pertence a NEps(q) 2) condição de ponto núcleo: |NEps (q)| >= MinPts p q MinPts = 5 Eps = 1 cm

60 Preliminares (II) Alcançavel pela densidade: Conectado pela Densidade
Um ponto p é alcançavel pela densidade de um ponto q Eps, MinPts se existe uma cadeia de pontos p1, …, pn, p1 = q, pn = p tal que pi+1 é diretamente alcançavel pela densidade de pi Conectado pela Densidade Um ponto p é conectado pela densidade a um ponto q Eps, MinPts se existe um ponto o tal que ambos, p and q são alcançaveis pela densidade de o wrt. Eps e MinPts. p p1 q p q o

61 DBSCAN: Density Based Spatial Clustering of Applications with Noise
Um grupo é definido como um conjunto de pontos máximo conectados pela densidade Descobre grupos de forma arbitrária em BD espaciais com ruido Core Border Outlier Eps = 1cm MinPts = 5

62 DBSCAN: O algoritmo Selecione um pointo p arbitrariamente
Recupere todos os pontos alcançaveis pela densidade de p wrt Eps and MinPts. Se p é um ponto core, forma-se um grupo. Se p é um ponto de fronteira, não há pontoas aclcançaveis pela densidade de p e DBSCAN visita o proxímo ponto da base de dados. Continue o processo até que todos os pontos tenham sido processados.

63 OPTICS: Ordering Points To Identify the Clustering Structure
Ankerst, Breunig, Kriegel, and Sander (SIGMOD’99) Produz uma ordenação especial da base de dados em relação a sua estrutura de agrupamento baseada em densidade Esse ordenamento de grupo contém informação equivalente a agrupamento baseado em densidade correspondente a uma ampla faixa de ajuste de parametros Bom tanto para agrupamento automático como iterativo, incluindo a procura da estrutura de agrupamento intrinsica Pode ser representado graficamente ou usar tecnicas de visualização

64 Distancia alcançavel indefinido Ordem de agrupamento dos objetos

65 DENCLUE: using density functions
DENsity-based CLUstEring by Hinneburg & Keim (KDD’98) Principais Caracteristicas Fundamentos matematicos solidos Bom para dados com presença maciça de ruido Permite uma descrição matemática compacta de grupos de forma arbitrária para dados multidemensionais Significativamente mais rápido do que os algoritmos existentes (mais rápido do que DBSCAN por um fator de até 45) No entanto precisa de uma enorme quantidade de parametros

66 Denclue: Essencia Usa celulas em grade mas guarda informações apenas sobre aquelas que realmente contém pontos e manipula essa celulas em uma estrutura de acesso tipo árvore. Função de influencia: descreve o impacto dos dados na sua vizinhança. A densidade global do espaço de dados pode ser calculada como a soma da função de influencia de todos os pontos. Os grupos podem ser determinados matematicamente pela identificação de atratores de densidade. Atratores de densidade são máximos locais da função densidade global.

67 Gradiente: Exemplo

68 Métodos baseados em Grade
Usa uma estrutura de dados grade de multipla resolução Vários métodos interessantes STING (a STatistical INformation Grid approach) by Wang, Yang and Muntz (1997) WaveCluster by Sheikholeslami, Chatterjee, and Zhang (VLDB’98) Uma abordagem de agrupamento multi resolução usando um método wavelet CLIQUE: Agrawal, et al. (SIGMOD’98)

69 STING: Uma abordagem Grade com Informações Estatísticas
Wang, Yang and Muntz (VLDB’97) A área espacial é dividida em células retangulares Há vários níveis de celulas correspondente a vários níveis de resolução

70 STING Cada célula em um nível mais alto é particionada em um número menor de celulas no próximo nível abaixo Calcula-se e armazena-se de antemão informações estatísticas de cada célula e usa-se a mesma para responder consultas Parametros de células de nível mais altos são facilmente calculadas à partir de parametros de células de nivel mais baixo count, mean, s, min, max tipo de distribuição—normal, uniforme, etc. Usa uma abordagem top-down para responder consultas espaciais Inicia a partir de uma camada pre-selecionada—tipicamente com um pequeno número de celulas Para cada célula do nível corrente calcule o intervalo de confiança

71 STING: Remoção de células irrelevantes para consideração adicional
Quando acabar o exame da camada corrente, passe para a próxima camada de nível mais baixo Repita esse processo até alcançar a camada inferior Vantagens: Independente de consultas, facil de paralelizar, atualização incremental O(K), onde K é o número de células na grade ao nível mais baixo Desvantagens: Todas as fronteiras dos grupos ou são horizontais ou verticais; fronteiras diagonais não são detectadas

72 WaveCluster (1998) Sheikholeslami, Chatterjee, and Zhang (VLDB’98)
Uma abordagem de agrupamento multi resolução que aplica transformada de wavelet no espaço de características Uma transformada de wavelet é uma tecnica de processamento de sinais que decompõe o sinal em diferentes sub-bandas de frequencia. É ao mesmo tempo um método baseado em grade e em densidade Parametros de entrada: # das celulas da grade para cada dimensão a wavelet, e o # de aplicações de transformada wavelet.

73 WaveCluster (1998) Como aplicar transformada de wavelet para encontrar grupos Simplifique os dados pela imposição de uma estrutura de grade multidimensional no espaço dos dados Esse objetos espaciais multidimensionais são representados em um espaço de caracteristicas n-dimensional Aplicar a transformada de wavelet no espaço de caracteristicas para encontrar regiões densas nesse espaço Aplicar transformada de wavelet várias vezes que resulta em grupos de diferentes escalas da mais fina a mais grosseira

74 WaveCluster (1998) Porque a transformada wavelet é útil para agrupamento Agrupamento não supervisionado Usa filtros para enfatizar regiões cujos pontos agrupam, e simulteneamente suprime informações mais fracas na fronteira Remoção eficaz de valores aberrantes Multi-resolução Eficiencia do custo Principais caracteristicas: Complexidade O(N) Detecção de grupos de forma arbitrária em diferentes escalas Insensível ao ruido ou a ordem dos dados de entrada Aplicavel apenas a dados de poucas dimensões

75 CLIQUE (Clustering In QUEst)
Agrawal, Gehrke, Gunopulos, Raghavan (SIGMOD’98). Identifica automaticamente regiões que permitem um melhor agrupamento do que o espaço original CLIQUE é ao mesmo tempo baseada em densidade e em grade Particiona cada dimensão no mesmo número de intervalos de igual tamanho Particiona o espaço m-dimensional em retangulos sem intersecção Uma unidade é densa se a fração dos pontos contida nessa unidade excede os parametros do modelo Um grupo é um conjunto máximo de unidades densas concectadas em um subespaço

76 CLIQUE: Principais etapas
Particione o espaço de dados e encontre o número de pontos que se encontram dentro de cada celula da partição. Identifique os subespaços que contém grupos usando o principio do Apriori Identificaçãod e grupos: Determine unidades densas em todos os subespaços de interesse Determine unidades densas conectadas em todos os subespaços de interesse. Gere a descrição mínima dos grupos Determine regiões máximas que cobrem um grupo de unidades densas conectadas para cada grupo Determinação da cobertura mínima de cada grupo

77 Vantagens e desvantagens de CLIQUE
Pontos fortes Encontra automaticamente regiões de máxima dimensionalidade tal que existe clusters de alta densidade neles É insensível a ordem de apresentação dos objetos e não é necessário supor nenhuma distribuição a priori para os dados Escalabilidade linear com o numero de objetos e boa escalabilidade quando o numero de dimensãoes dos dados cresce Pontos fracos A precisão dos resultados do agrupamento pode ser degradada em função da simplicidade requerida pelo método

78 Clustering baseado em Modelos
Procura otimizar o ajustamento entre os dados e um modelo matemático particular Abordagens Estística e de AI Agrupamento Conceptual Uma forma de agrupamento em aprendizagem de máquina Fornece uma classificação para um conjunto de objetos não rotulados Encontra a descrição característica de cada conceito (classe) COBWEB (Fisher’87) Um método de agrupamento conceptual incremental Cria um agrupamento hierarquico expresso por uma árvore de classificação Cada nó representa um conceito e contém uma descrição probabilistica do mesmo

79 COBWEB Uma árvore de classificação

80 Clustering baseado em Estatística
Limitações do COBWEB A suposição de que os atributos são independentes é muito forte: podem existir correlações Não é apropriado para o agrupamento de grandes bases de dados CLASSIT Extensão de COBWEB para agrupamento incremental de dados contínuos Sofre dos mesmos problemas de COBWEB AutoClass (Cheeseman and Stutz, 1996) Usa analise Bayesiana para estimar o número de grupos Popular na industria

81 Outros Métodos de Agrupamento baseado em Modelos
Abordagens redes Neurais Representa cada grupo como um exemplo, que age como um “prototipo” do grupo Novos objetos são distribuidos para o grupo cujo exemplar é o mais similar segundo uma dada distancia Aprendizagem Competitiva Involve uma arquitetura hierárquica de várias unidades (neuronios) Os neuronios competem em um modo “vencedor-leva-tudo” para o objeto sendo correntemente apresentado

82 Self-organizing feature maps (SOMs)
O Agrupamento é realizado pela competição de várias unidades pelo objeto corrente A unidade cujo vetor de pesos é a mais próxima do objeto corrente vence O vencedor e seus vizinhos aprendem pelo ajustamento de seus pesos Bem adaptado para a visualização de dados multi-dimensionais em 2 ou 3 dimensões

83 Problemas e Desafios Progressos consideráveis forem realizados em métodos de agrupamento escalaveis Partição: k-means, k-medoids, CLARANS Hierarquia: BIRCH, CURE Densidade: DBSCAN, CLIQUE, OPTICS Grid: STING, WaveCluster Modelo: Autoclass, Denclue, Cobweb Os métodos atuais de agrupamento não satisfazem todos os requerimentos desejáveis adequadamente Agrupamento sob restrições: Restrições estão presentes no espaço de dados ou nas consultas dos usuários

84 Sumário Cluster analysis agrupa objetos com base nas suas similaridades e tem uma ampla faixa de aplicações Medidas de similaridade podem ser calculadas para varios tipos de dados Os Métodos de agrupamento podem ser divididos em métodos de partição, hierarquicos, baseados em densidade, baseados em grade e baseados em modelos Ainda há muitos progressos a serem realizados em análise de agrupamentos tais como em agrupamento baseado em restrições


Carregar ppt "Prof. Francisco de A. T. de Carvalho"

Apresentações semelhantes


Anúncios Google