Carlos Oberdan Rolim Ciência da Computação

Slides:



Advertisements
Apresentações semelhantes
Sistemas Distribuídos
Advertisements

Sistemas Distribuídos Sistemas Paralelos e de Alto Desempenho
Paralelismo em Máquinas Multiprocessadas
Classificação Moderna de Máquinas Paralelas
Sistemas Distribuídos
Redes de Computadores Wandreson Luiz Brandino
Arquitetura de Sistemas Operacionais
Sistemas Distribuídos:Definições e Caracteristicas
Sistemas Operacionais - 3
Sistemas Operacionais - 4
MULTICORE Aluno: Gabriel Antonio Leite São processadores caracterizados por apresentar vários cores (núcleos de processamento) em um único chip.
Aula Inicial.
Multithreading e multiprocessamento
Arquitetura de Sistemas Operacionais
Computação de Alto Desempenho
Computação Paralela e Distribuída
Modelos de Computadores Paralelos
SSC114 Arquitetura de Computadores Arquiteturas Paralelas
Aulas 11 e 12 08/10/10 (Turma 1 e 2) Profa. Sarita
Sistemas Distribuídos, Programação Concorrente e Redes de Computadores SSC/ICMC/USP Grupo de Sistemas Distribuídos e Programação Concorrente Paulo Sérgio.
Rganização de Computadores Multiprocessadores Capítulo 9 – Patterson & Hennessy Organização de Computadores Multiprocessadores Capítulo 9 – Patterson &
Sistemas com Múltiplos Processadores
Processamento paralelo PAE: Julio Cesar Torelli Docente: Prof. Dr. Odemir Martinez Bruno Universidade de São Paulo - USP Instituto de Ciências Matemáticas.
Universidade do Vale do Rio dos Sinos - São Leopoldo -
Sistemas Distribuídos
Computadores Tipos e estrutura interna
Airam J. Preto , Celso L. Mendes
Paralelismo Computadores de alto-desempenho são utilizados em diversas áreas: - análise estrutural; - previsão de tempo; - exploração de petróleo; -
Tópicos em redes e sistemas distribuídos B
Tópicos em redes e sistemas distribuídos B
Tópicos em redes e sistemas distribuídos
Sistemas Distribuídos
Tópicos em redes e sistemas distribuídos Carlos Oberdan Rolim Ciência da Computação Sistemas de Informação.
Tópicos em redes e sistemas distribuídos
Arquitetura de Sistemas Operacionais – Machado/Maia 13/1 Arquitetura de Sistemas Operacionais Francis Berenger Machado Luiz Paulo Maia Capítulo 13 Sistemas.
Sistemas operacionais
Sistemas Operacionais I
ARQUITETURA DE COMPUTADORES DEPT. DE CIÊNCIA DA COMPUTAÇÃO - UFMG Aula 17: Introdução às Arquiteturas Paralelas.
Sistemas Distribuídos
Sistemas Distribuídos Introdução. Conceito Coleção de múltiplos processos que executam sobre uma coleção de processadores autônomos interligados em uma.
BD Distribuído Conceitos Iniciais.
Componentes redes de computadores
Augusto Martins e José Luís Zem Universidade Metodista de Piracicaba - UNIMEP Curso de Bacharelado em Sistemas de Informação Utilização de Cluster de Computadores.
TELP: Aplicações Paralelas em Ambientes de Passagem de Mensagens
ALUNOS: ANDRÉ MANZANO DIOGO SAMPAIO JOÃO PAULO
Evolução dos Sistemas de Computação e das arquiteturas.
Paralelismo em Máquinas Multiprocessadas
PROGRAMAÇÃO DISTRIBUÍDA Aula 01 Prof. Henrique Mongelli
Sistemas Distribuídos
INPE / CAP-315 Airam J. Preto, Celso L. Mendes Aula 24 (1) Redes de Interconexão Tópicos: Redes com Topologia Dinâmica Comparação entre Topologias.
Sistemas Operacionais
Redes de Computadores I Curso de Análise de Sistemas Celso Cardoso Neto 2013.
Tópicos Especiais em Redes de Computadores 6º Semestre Aula 03 Prof
Multiprocessadores e Paralelismo nível de Thread
Sistemas de Informação para Planejamento Estratégico Confiabilidade na Tecnologia.
Linux em Máquinas Paralelas
Programação Paralela Simone de Lima Martins Março-Julho/2001 Universidade Federal do Mato Grosso do Sul.
Processamento de Alto Desempenho Prof. Mateus Raeder Universidade do Vale do Rio dos Sinos - São Leopoldo -
Estrutura de Interconexão
Multiprocessadores e Paralelismo nível de Thread
Infraestrutura Computacional Prof. Me. Vanderlei Ienne.
Algoritmos Paralelos.
Arquitetura de computadores
Conceituação e Classificação
Banco de Dados Distribuídos Sílvia Cristina de Matos Soares
Prof. Arthur Projeto Lógico de ComputadoresArquiteturas Avançadas Projeto Lógico de Computadores Prof. Arthur Arquiteturas Avançadas.
Sistemas Distribuídos Wesley Lucas Breda 4ºP de SI e TADS.
Aula Inicial.
Classificação Moderna de Máquinas Paralelas
Sistemas Operacionais Distribuídos e/ou de Redes Engenharia da Computação – UCPEL Ritiele Moreira Aldeburg.
Transcrição da apresentação:

Carlos Oberdan Rolim Ciência da Computação Tolerância a Falhas Carlos Oberdan Rolim Ciência da Computação

Arquiteturas paralelas

Arquiteturas computacionais Taxonomia de Flynn: 1972 - se baseia nas possíveis unicidade e multiplicidade dos fluxos de instruções e de dados para definir quatro tipos de arquiteturas: SISD (Single Instruction Streams Single Data Streams ): Fluxo único de instruções sobre um único conjunto de dados . Computadores sequenciais SIMD (Single Instruction Streams Multiple Data Streams ): Fluxo único de instruções em múltiplos conjuntos de dados .Computadores vetoriais e matriciais MISD (Multiple Instruction Streams Single Data Streams ): Fluxo múltiplo de instruções em um único conjunto de dados .Não existem computadores MIMD (Multiple Instruction Streams Multiple Data Streams ): Fluxo múltiplo de instruções sobre múltiplos conjuntos de dados. .Arquiteturas com múltiplos processadores independentes

Classificação de Flynn SISD (Single Instruction Single Data) Máquinas von Neumann tradicionais: microcomputadores pessoais e estações de trabalho

Classificação de Flynn SIMD (Single Instruction Multiple Data) Máquinas array: CM-2, MasPar

Classificação de Flynn MISD (Multiple Instruction Single Data) Não existe!

Classificação de Flynn MIMD (Multiple Instruction Multiple Data) Multiprocessadores e multicomputadores: nCube, Intel Paragon, Cray T3D

Multiprocessadores e multicomputadores MIMD Computadores Paralelos e Distribuídos Fortemente Acoplado Fracamente Acoplado Multiprocessadores (memória compartilhada) Multicomputadores (memória privada) Barramento Switched Barramento Switched Sequent, Encore Ultracomputer, RP3 Estações de Trabalho Transputer, Hypercube

Multiprocessadores Baseado em barramento CPU cache Memória

Multiprocessadores Baseado em switch M M M M C M C C M C C M C C M C omega switching network crossbar switch

Multicomputadores Baseado em barramento CPU CPU CPU Memória Local Estação de Trabalho CPU Memória Local Estação de Trabalho CPU Memória Local Estação de Trabalho Rede

Multicomputadores Baseado em switch hypercube grid

Compartilhamento de memória Multiprocessadores (espaço de endereçamento único) UMA (uniform memory access) - memória central NUMA (non-uniform memory access) - memória distribuída COMA (cache-only memory architecture) CC-NUMA (cache-coherent non-uniform memory access) NCC-NUMA (non-cache-coherent non-uniform memory access) Multicomputadores (múltiplos espaços de endereçamento) NORMA (non-remote memory access) SC-NUMA (software-coherent non-uniform memory access) DSM (Distributed shared memory)

Compartilhamento de memória UMA P Rede de Interconexão M Coerência de cache resolvida em HW.

Acesso Não-Uniforme à Memória (NUMA) Dois ou mais processadores compartilham a memória global (= um único espaço de endereçamento). Em um sistema NUMA os processadores são organizados em nós. Cada nó possui 1 ou mais processadores, com sua(s) própria(s) memória(s) cache (um, dois, ou mais níveis) e alguma memória principal conectados por um barramento ou outro sistema de interconexão. Principal característica de uma arquitetura NUMA é o acesso não uniforme à memória, ou seja, embora todos os processadores possam acessar todas as posições de memória, os tempos de acesso variam de acordo com o endereço acessado Acesso local mais rápido que acesso remoto Dois tipos: ncNUMA (NUMA sem cache) e ccNUMA (NUMA com cache)

Compartilhamento de memória NUMA espaço de endereçamento M M M M M M M M P Rede de Interconexão

Compartilhamento de memória NORMA Rede de Interconexão P M

Arquiteturas paralelas Serie: N módulos conectados um após o outro. Falha de um módulo ocasiona falha o sistema todo Paralelo: N módulos conectados entre si. O sistema falha somente se todos os módulos falharem

Arquiteturas paralelas Confiabilidade pode ser calculada através das fórmulas Regra: Todos os módulos podem ser percorridas da esquerda para a direita Quando não pode percorrer todos os caminhos usar a fórmula: Série Paralelo ADF funciona BCDF não funciona

Arquiteturas paralelas e distribuídas Cray T90 Cray SX6

Arquiteturas paralelas e distribuídas Multiprocessadores simétricos (SMP) Múltiplos processadores similares conectados entre si e à memória por um barramento ou alguma outra forma de circuito de conexão interno Compartilhamento total Sistema operacional controla tudo P/C P/C P/C P/C Barramento / Matriz de chaveamento MC MC MC Baixa escalabilidade – gargalo no barramento. Exemplos: IBM R50, SGI Power Challenge, SUN Ultra Enterprise 10000, HP/Convex Exemplar X-Class, DEC Alpha Server 8400

Arquiteturas paralelas e distribuídas HP Integrity rx8620-32 Server Intel Quad Xeon 7400 Server

Arquiteturas paralelas e distribuídas Máquinas maciçamente paralelas (MPP) P/C P/C P/C M M M Rede de interconexão de baixa latência Rede de interconexão proprietária. Comunicação através de troca de mensagens. Exemplos: Intel Paragon, Connection Machine CM-5, IBM SP-2

Arquiteturas paralelas e distribuídas Intel Paragon IBM SP2 Connection Machine CM-5

Arquiteturas paralelas e distribuídas Blue Gene da IBM

Arquiteturas paralelas e distribuídas Máquinas com memória compartilhada distribuída (DSM) P/C P/C P/C M M M Rede de interconexão de baixa latência NUMA / NORMA Os processadores podem acessar todas as memórias. (único espaço de endereçamento) DSM implementado em SW, HW ou misto. Exemplos: Stanford DASH, Cray T3D, estações de trabalho rodando TreadMarks

Arquiteturas paralelas e distribuídas Cray T3D

Clusters - Motivação Processamento de alto desempenho ⌐ milhares de aplicações ao mesmo tempo ⌐ tarefas paralelas Ao longo dos anos uso de arquiteturas massivamente paralelas (MPP) e de memória compartilhada (SMP) Custo elevado desses tipos de máquinas Computadores pessoais custo menor

O que é cluster ? “Cluster é um sistema distribuído que consiste na coleção de computadores interconectados, usados como um sistema único” (Gregory F. Pfister – In search of cluster) Sistema de processamento de dados paralelo ou distribuído Agregar computadores pessoais Computadores conectados de forma cooperativa Visão de sistema único para usuários e aplicações Execução de aplicações específicas de uma organização

Arquitetura de cluster Parallel Applications Parallel Applications Parallel Applications Sequential Applications Sequential Applications Sequential Applications Parallel Programming Environment Cluster Middleware (Single System Image and Availability Infrastructure) PC/Workstation Network Interface Hardware Communications Software PC/Workstation Network Interface Hardware Communications Software PC/Workstation Network Interface Hardware Communications Software PC/Workstation Network Interface Hardware Communications Software Cluster Interconnection Network/Switch

Classificação dos clusters -Pequena (sala, laboratório) Média (departamento) Grande (organização) Dedicados Não dedicados NOW (Network of Workstations) COW (Cluster of Workstations) Clumps (Cluster de SMPs) Alto desempenho Alta disponibilidade Homogêneo Heterogêneo Limite geográfico Utilização dos nodos Tipo de topologia Aplicações alvo Tipos de nós Métricas para classificação dos clusters

Classificação dos clusters Limite geográfico: área de atuação do cluster Pequena (sala, laboratório) Média (departamento) Grande (organização)

Classificação dos clusters Utilização dos nós: define quais políticas de gerenciamento, segurança, alta disponibilidade, qual tipo de middleware usar Dedicados Não dedicados

Classificação dos clusters Tipo de topologia: qual hardware usar NOW (Network of Workstations): estações de trabalho normais COW (Cluster of Workstations): heterogêneas, usadas em aplicações específicas Clumps (Cluster de SMPs): composto por máquinas SMP

Rede padrão (Ethernet,ATM) NOW Redes de estações de trabalho (NOW) P/C P/C P/C M M M Rede padrão (Ethernet,ATM) Compartilhamento de recursos. Utiliza rede convencional. Exemplos: estações de trabalho interligadas por Ethernet

NOW

Rede padrão ou de alto desempenho COW Máquinas agregadas (COW) P/C P/C P/C M M M Rede padrão ou de alto desempenho Aplicações paralelas, alta disponibilidade, balanceamento de carga. Pode utilizar rede convencional ou de alto desempenho. Otimizações em software. Exemplos: iCluster HP Labs (Grenoble), Primergy Server do PC2 (Paderborn), cluster Amazônia (CPAD-PUCRS/HP)

Clusters Clusters Amazônia e Ombrófila CPAD-PUCRS/HP

Clusters HP i-cluster Grenoble