PARALELISMO ARQUITETURAS DE ALTO DESEMPENHO: PARALELISMO PARALELISMO PROFESSORA LUIZA MOURELLE.

Slides:



Advertisements
Apresentações semelhantes
Paralelismo Computadores de alto-desempenho são utilizados em diversas áreas: - análise estrutural; - previsão de tempo; - exploração de petróleo; -
Advertisements

Estrutura de Interconexão
A CPU E SUA EVOLUÇÃO. CPU (Central Processing Unit ou Unidade Central de Processamento)  DEFINIÇÕES:  A CPU é o hardware principal do computador; 
Sistema Multiutilizador
Tecnologias da Informação e Comunicação. Conteúdos Conceitos básicos Informática, Tecnologias da Informação, Tecnologias da Informação e Comunicação Dados,
Curso: Tecnólogo em Redes de Computadores Disciplina: Sistemas Operacionais Profª: Cristiane Machado de Vargas G ERÊNCIA DE R ECURSOS : GERÊNCIA DO PROCESSADOR.
DSC/CEEI/UFCG Hardware (Parte I) Prof. a Joseana Macêdo Fechine Régis de Araújo Prof. a Joseana Macêdo Fechine Régis de Araújo
Universidade Federal de Goiás Instituto de Informática Programa de Pós-Graduação em Ciência da Computação Tópicos Avançados em Sistemas Distribuídos 1o.
Introdução a Ciência da Computação Aula 05 Prof. Francisco G. Rodrigues.
Administração de Sistemas Operacionais 1 -Windows Processos Curso Técnico em Redes de Computadores Prof. Emerson Felipe.
Como funciona o processador Nomes: Fernando, Maurício, William Turma: 1J-1PC1 Disciplina: Fundamentos da Computação Curso: Técnico em Programação de Computadores.
Conhecendo o Computador. CPU Periféricos Internos Periféricos externos BIOS Upgrade de BIOS POST Setup CMOS.
UNIDADE 2 Ferramentas do Pacote Office Hardware e Software Olá! Aqui estamos nós outras vez! Agora para dar início à unidade 2.
ARQUITETURA AULA 3 Prof. Luiz Ricardo Lima 2º sem de 2016.
CARACTERISTICAS DO CLP - Fácil diagnóstico de funcionamento ainda em fase de projeto do sistema e/ou reparos que venham a ocorrer.
Curso: Sistema de Informação
Sistemas Operacionais
Um estudo comparativo entre VMWARE ESXI E XENSERVER
INTRODUÇÃO Ligações inter- redes.
A sigla TIC significa Tecnologias de Informação e Comunicação.
Manutenção de Periféricos II
IFAC1 Hardware e software.
Ciclos de operação em processador
PSI3441 – Arquitetura de Sistemas Embarcados
Sistemas Distribuídos
Mapeamento de Entrada e Saída em Sistemas Digitais
Criação: Caroline Brasileiro Atualização: Laura Matos
Jorge ramos 7ºb | nº12 André Carvalho 7ºb | nº2
Organização e arquitetura de computadores
Barramento ou Bus de um Sistema Informático
Introdução aos Sistemas Operacionais
ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES
A sigla TIC significa Tecnologias de Informação e Comunicação.
Administração de Gerência de servidores
Administração de Banco de Dados
Hardware É a parte física de um sistema de computação, ou seja, todos os elementos materiais que o constituí (circuitos eletrônicos, dispositivos mecânicos,
Prof. Wellington Franco
Introdução ao Módulo Arthur Albertin
TRABALHO REALIZADO POR Fábio Rodrigues, Sandro Garcia, Rafael Lourenço
Organização e Arquitetura de Computadores 2º Semestre Aula 1 Prof
Administração de Sistemas Operacionais I
Instruções.
Componentes de Redes de Computadores
INTRODUÇÃO A COMPUTAÇÃO
Arquitetura e organização de computadores
Sistemas Distribuídos
1 Introdução aos COMPUTADORES Profª Alda Vagarinho.
NOÇÕES DE HARDWARE.
INTRODUÇÃO À COMPUTAÇÃO PARALELA
Introdução a Redes v5.1 Capítulo 8: Divisão de Redes IP em Sub- Redes.
Notas de aula baseadas no livro de William Stallings Arquitetura e Organização de Computadores 8a Edição Capítulo 1 Introdução.
Aplicações de Flip-Flops Registradores
Comutação de Rajadas Ópticas
Representação da Informação
Gerência de Dispositivos e Sistemas de Arquivos
Técnicas de Transmissão
Tecnologia da Informação Visão Geral sobre Informática
Sistemas Operacionais I
COMPONENTES DO COMPUTADOR E SUAS FUNÇÕES. PLACA MÃE A placa-mãe é o principal componente de um computador, pois ela é responsável por interligar todos.
Programação Estruturada Aula 1 Prof. Jorge Barreto Julho 2018.
Linguagem de Programação
Sistemas Operacionais Aula 3
Estrutura do Sistema Operacional
Microprocessadores e Microcontroladores
Arquitetura de Computadores
Hierarquia de memória Memória Interna. Memória A.W. Burks, H.H. Goldstine e J. von Neumann Preliminary Discussion of the Logical Design of na Eletronic.
Conceito de Hardware e Software. Hardware Hardware – São os dispositivos físicos de um Computador (placas mãe, memorias auxiliar e principal, periféricos.
Aluísio Pires Leonan Cordeiro Pedro Morais Vitor Chaia
CLP – Controladores Lógicos Programáveis Iniciou-se em 1968, pela General Motors. Foi uma alternativa para substituir as lógicas á relé.
CURSO DE LICENCIATURA EM COMPUTAÇÃO Disciplina: Organização e Arquitetura de computadores Tema: Álgebra booleana e Circuitos lógicos digitais Professor:
Transcrição da apresentação:

PARALELISMO ARQUITETURAS DE ALTO DESEMPENHO: PARALELISMO PARALELISMO PROFESSORA LUIZA MOURELLE

INTRODUÇÃO : COMPUTAÇÃO DE ALTO DESEMPENHO Se refere ao uso de supercomputadores ou cluters de vários computadores em tarefas que requerem grandes recursos de computação, nomeadamente simulações numéricas muito complicadas. Geralmente classificam-se aqueles cuja performance é de pelo menos alguns teraflops*. *TERAFLOPS: ponto flutuante por segundo.

O que vem a serPARALELISMO? É uma técnica que consiste em quebrar tarefas grandes e geralmente complexas, em tarefas menores, para distribuí-las entre outros processadores interligados e executando simultaneamente as instruções a fim de obter resultados mais rápidos.

UTILIZADOS EM DIVERSAS ÁREAS COMO : Análise estrutural; Previsão de tempo; Exploração de petróleo; Pesquisa em fusão de energia; Diagnóstico médico; Simulações aerodinâmicas; Automação industrial; Sensoriamento remoto; Engenharia genética; e outras.

A obtenção de alto desempenho não depende somente em utilizar dispositivos de hardware mais rápidos, mas também em melhorias na arquitetura dos computadores e técnicas de processamento. Processamento paralelo é uma forma eficiente de processamento de informação que explora eventos concorrentes no processo de computação no processo de computação.

Arquiteturas avançadas de computadores estão baseadas no conceito de processamento paralelo: Pipeline Pipeline: Computadores paralelos são sistemas que suportam processamento paralelo. Podem ser divididos em três configurações arquiteturais: Realiza computações superpostas a fim de explorar paralelismo temporal. Arranjo de Processadores: Utiliza múltiplas unidades lógicas e aritméticas síncronas para obter paralelismo espacial. Multiprocessadores: Implementam paralelismo assíncrono através de um conjunto de processadores interativos com compartilhamento de recursos.

Mecanismos de processamento paralelo foram desenvolvidos para computadores com um único processador: Múltiplas unidades funcionais; Paralelismo e pipeline dentro da CPU; Superposição das operações da CPU e de entrada/saída; Hierarquia de memória; Multiprogramação e compartilhamento de tempo. Muitas das funções da UNIDADE LÓGICA E ARITMÉTICA podem ser distribuídas em unidades funcionais especializadas que podem operar em paralelo.

As operações de entrada/saída podem ser realizadas simultaneamente com as operações da CPU através do uso de controladores de entrada/ saída, canais de entrada/saída ou processadores de entrada/saída. Acesso direto à memória (DMA) pode ser utilizado para permitir transferência direta entre dispositivos de entrada/saída e a memória, numa forma de roubo de ciclo, transparente à CPU. Hierarquia de memória oferece a possibilidade de reduzir a diferença entre a velocidade de processamento da CPU e o tempo de acesso à memória.

EXEMPLO DO SLIDE ANTERIOR:

O CDC-6600 tem 10 unidades funcionais dentro da CPU, operando independentemente e simultaneamente.. O CDC 6600 era um computador main frame, lançado em Geralmente considerado o super computador mais bem sucedido.

Multiprogramação e compartilhamento de tempo são soluções de software para obter concorrência num sistema com um processador. Multiprogramação consiste do intercalamento de programas, permitindo melhor utilização dos recursos através da superposição das operações de entrada/saída e da CPU. Compartilhamento de tempo consiste em atribuir fatias iguais ou variáveis do tempo de CPU para vários programas, evitando que um determinado programa venha a ocupar a CPU por um tempo muito longo.

EXEMPLO DO SLIDE ANTERIOR:

Dentro de um mesmo intervalo de tempo podem haver múltiplos processos ativos no computador, competindo por recursos de memória, entrada/saída e CPU. Considere os processos P1, P2 e P3, realizando operações de entrada (e), saída (s) e computação (c):

Consiste em modelar o problema semelhantemente a uma linha de produção: cada processo possui a capacidade de resolver uma parte do problema. Uma vez terminada a sua parte, o processo envia os resultados para o processo seguinte e fica disponível para receber novos dados. PIPELINE ARRANJO Consiste em criar vários processos capazes de fazer a mesma coisa: ganha-se performance distribuindo partes menores do problema para cada processo

É um computador paralelo, síncrono com varias Unidades Logicas e Aritimeticas (ALU), também chamadas de Elementos de Processo (EP) São sincronizados para operar a mesma tarefa, ao mesmo tempo e são constituídos por uma ALU com registradores e uma unidadede memoria local, conectados por uma rede de roteamento de dados. A UC realiza uma busca e decodifica as instruções. Após isso, essa UC faz a conexão entre os EP, e envia as instruções para que seja executada de acordo com o que as memorias locais designaram.ARRANJO

PASSOS DE PROCESSAMENTO: Busca de instrução (BI); Decodificação de instrução (DI); Busca de operando (BO); Execução da instrução (EI)

PROCESSAMENTO EM PIPELINE: Usa a BI do processo 1 (p1), enquanto esta DI de P1, está BI de processo 2. Enquanto esta usando a BO do P1, DI do p2, está BI de p3, e assim por diante. FLUXO DE DADOS: O fluxo de dados, bem como as operações de todos os estágios são sincronizados por um único ciclo de clock do pipeline. Uma vez que o pipeline esteja cheio, um resultado é produzido a cada ciclo. No exemplo, o ciclo de instrução foi reduzido em 1/4 do ciclo sem pipeline.

Teoricamente um processador com N estagio de pipeline é N vezes mais rápido do que um processador sem pipeline. VELOCIDADE DE PROCESSAMENTO: Esse speedup ideal pode não ser atingido devido a conflitos de memória, dependência de dados, desvios e interrupções. Alguns dos principais problemas no projeto de um pipeline são: Sequenciamento do programa; Prevenção contra colisão; Controle de congestionamento; Tratamento de desvios; Reconfiguração.

Sistemas multiprocessadores contêm dois ou mais processadores com capacidades aproximadamente idênticas, compartilhando módulos de memória, canais de entrada/saída e dispositivos periféricos. O sistema multiprocessador deve ser controlado por um único sistema operacional, controlando as interações entre processadores e programas. Cada processador possui a sua memória local e dispositivos próprios, sendo que a comunicação entre processadores se faz através das memórias compartilhadas ou de uma rede de interrupção.

Há três tipos de interconexão: barramento comum compartilhado no tempo, rede de chaves cruzadas e memórias de múltiplas portas.

CLASSIFICAÇÃO DE FLYNN: É baseada na multiplicidade do fluxo de instruções e de dados num computador, em que o principal processo computacional é a execução de uma sequência de instruções sobre um conjunto de dados. Flynn definiu quatro organizações de máquina: Fluxo único de instrução-fluxo único de dados (SISD); Fluxo único de instrução-fluxo múltiplo de dados (SIMD); Fluxo múltiplo de instrução-fluxo único de dados (MISD); Fluxo múltiplo de instrução-fluxo múltiplo de dados (MIMD)

Tanto as instruções quanto os dados são buscados dos módulos de memória (MM). As instruções são decodificadas pela unidade de controle (UC) e, em seguida, são enviadas às unidades processadoras (UP) para execução. Cada fluxo de instrução (FI) é gerado por uma unidade de controle independente. Fluxos múltiplos de dados (FD) são originados dos módulos de memória compartilhados. SISD/SMID

MISD MMID

BIBLIOGRAFIA: ARTIGO CIÊNTIFICO BASE: PARALELISMO Luiza de Macedo Mourelle PROFESSORA – UERJ Doutorado em computação (Ph.D.), Departament of Computation, University of Manchester (UMIST), Manchester, England, 1998

CRÉDITOS: Marcela Cristina Leite, Mario Celso de Almeida Moraes Junior, Carlos Henrique de Moura Galvão ARQUITETURA DE COMPUTADORES PROFESSOR HELTON HUGO PROFESSOR HELTON HUGO 1° SEMESTRE – ° SEMESTRE – 2018 IFSP-CJO IFSP-CJO