INTRODUÇÃO À COMPUTAÇÃO PARALELA

Slides:



Advertisements
Apresentações semelhantes
INTRODUÇÃO À COMPUTAÇÃO PARALELA
Advertisements

TELP: Aplicações Paralelas em Ambientes de Passagem de Mensagens
HARDWARE (Parte II). 2 Hardware – Memória  Componente de um sistema de computação cuja função é armazenar informações que são (ou serão) manipuladas.
David de moraes junior Márcia batista souza. ARQUITETURAS PROPRIETÁRIAS Apenas um fabricante lança produtos compatíveis com a sua própria arquitetura.
Estatística Aplicada. Unidade 2 Representação de Dados Estatísticos (Tabelas)
Soraia Dias Graduanda em pedagogia – UFBA Técnico em segurança do trabalho Estagiaria em tecnologia educacional.
GEOPROCESSAMENTO: Fundamentos Teóricos
“Modelo de Camadas OSI e TCP/IP ” Nataniel Vieira
UNIVERSIDADE FEDERAL DE GOIÁS INSTITUTO DE INFORMÁTICA
Sistemas Distribuídos 5º Semestre Aula 3 e 4 Prof
Sistemas Operacionais de Rede
Introdução ao OpenMP Open MultiProcessing.
Inteligência Artificial
Arquitetura de Computadores
Márcio Soussa Estrutura de Dados Márcio Soussa
Computação de Alto Desempenho Utilizando Placas Gráficas
Administração de Gerência de servidores
Aula 05 Pilha TCP/IP.
ADSD Introdução.
Desenhos do processo de pesquisa qualitativa
Evolução dos Sistemas de Comunicação de Dados
INTRODUÇÃO À CIÊNCIA DA COMPUTAÇÃO PROF. BRUNO DE CASTRO H. SILVA
João da Silva, Maria José, Adriana Carla e José Joaquim
Sistemas Prof. Luis S. B. Marques MINISTÉRIO DA EDUCAÇÃO
Prof. Wellington Franco
Ciência & Engenharia da Computação
CPU.
Redes de computadores I
Tema 5 – Arquitetura de Banco de Dados
TÍTULO DO MEU TRABALHO INTRODUÇÃO O ROBÔ OBJETIVOS
FUNDAMENTO DE PROGRAMAÇÃO PROF. BRUNO DE CASTRO H. SILVA
Planejamento de estratégias:
SISTEMAS OPERACIONAIS
Funções de um computador
Arquitetura de Computadores
Engenharia de Software II
IP – Repetições Prof. Eduardo Falcão.
Introdução à Análise Fatorial
Parte III – Planejando o Projeto
Mosaico Digital: monitor interativo de realidade aumentada
Criado por : José douglas
INE 5201 – INTRODUÇÃO À CIÊNCIA DA COMPUTAÇÃO
Prof: Márcio Soussa Centro Universitário Jorge Amado
Tópicos Especiais em Redes I 4º Semestre Aula 04 Prof
AULA 3.
Gestão da Logística de Distribuição
Segunda parte do curso de Computação Paralela
PARALELISMO ARQUITETURAS DE ALTO DESEMPENHO: PARALELISMO PARALELISMO PROFESSORA LUIZA MOURELLE.
aula 05 Métodos de controle de acesso
Quem sou eu? /iurykrieger Fullstack Developer na Chaordic
Sistemas Operacionais
Complexidade de Algoritmos
NOSSO CONCEITO A empresa e seu capital humano como um grande ambiente de aprendizagem.
INTRODUÇÃO AO MS PROJECT
Integração de Informações, Gerência de Armazenamento e Otimizações em Aplicações Não Convencionais Projeto de Pesquisa DIA/UNIRIO Fernanda Baião
Linguagem PASCAL Tipos Estruturados
Arquitetura de Sistemas Operacionais
Modbus Bernardo da cunha borges Guilherme Garcia gimenez
Dinâmica de Sistemas Uma visão geral.
Prof. Wilian Soares Lacerda DCC - UFLA
Introdução à Lógica Programável
Diagrama de Atividades
Introdução à lógica de programação utilizando Scratch Aula 3
Estágio supervisionado na CECAE
RISC vs. CISC Introdução
Metodologia Científica e Tecnológica
SISTEMAS DISTRIBUIDOS
Sistemas Embarcados Prof. Dr. Cesar da Costa
O mundo além do processamento de jogos.
SISTEMAS DISTRIBUIDOS
Transcrição da apresentação:

INTRODUÇÃO À COMPUTAÇÃO PARALELA UNIVERSIDADE ESTADUAL PAULISTA INSTITUTO DE GEOCIÊNCIAS E CIÊNCIAS EXATAS Departamento de Estatística, Matemática Aplicada e Computação INTRODUÇÃO À COMPUTAÇÃO PARALELA

CONTEÚDO INTRODUÇÃO CONCEITOS BÁSICOS ARQUITETURAS PARALELAS PROGRAMAÇÃO PARALELA MULTICOMPUTADORES CONSIDERAÇÕES FINAIS

INTRODUÇÃO - MOTIVAÇÕES Busca por maior desempenho; Aplicações intrinsecamente paralelas. Alto custo dos supercomputadores tradicionais. Desenvolvimento de redes de computadores de alta velocidade; Desenvolvimento tecnológico na construção de microprocessadores;

CONTEÚDO INTRODUÇÃO CONCEITOS BÁSICOS ARQUITETURAS PARALELAS PROGRAMAÇÃO PARALELA MULTICOMPUTADORES CONSIDERAÇÕES FINAIS

CONCEITOS BÁSICOS Concorrência: quando dois ou mais processos começaram sua execução mas não terminaram. Sistema Distribuído: Processos concorrentes executados em vários elementos de processamento. Paralelismo: Sistema distribuído visando à solução de um único problema.

CONTEÚDO INTRODUÇÃO CONCEITOS BÁSICOS ARQUITETURAS PARALELAS PROGRAMAÇÃO PARALELA MULTICOMPUTADORES CONSIDERAÇÕES FINAIS

ARQUITETURAS PARALELAS Classificação de Flynn é a mais utilizada embora não seja muito abrangente. SISD (Single Instruction Single Data): Arquitetura de von Neumann; SIMD (Single Instruction Multiple Data): Supercomputadores clássicos (Computadores vetoriais); MISD (Multiple Instruction Single Data): O Mesmo fluxo de dados percorre um array linear de processadores (pipeline); MIMD (Multiple Instruction Multiple Data): Arquiteturas formada por processadores executam instruções independentemente.

ARQUITETURAS PARALELAS Modelo simplificado dos conjuntos de aplicações relacionados aos tipos de arquiteturas

ARQUITETURAS PARALELAS CATEGORIAS MIMD: Memória compartilhada: Caracteriza-se pela existência de uma memória global. Memória distribuída: Cada processador possui sua própria memória local. Os processos devem utilizar troca de mensagem para se comunicar. Redes de computadores utilizando um sistema de passagem de mensagem encontram-se nesta categoria.

CONTEÚDO INTRODUÇÃO CONCEITOS BÁSICOS ARQUITETURAS PARALELAS PROGRAMAÇÃO PARALELA MULTICOMPUTADORES CONSIDERAÇÕES FINAIS

PROGRAMAÇÃO PARALELA Para a execução de programas paralelos, deve haver meios de: Definir um conjunto de tarefas a serem executadas paralelamente; Ativar e encerrar a execução destas tarefas; Coordenar e especificar a interação entre estas tarefas.

PROGRAMAÇÃO PARALELA Há pelo menos três maneiras de se construir um algoritmo paralelo: Detectar e explorar um paralelismo inerente a um algoritmo seqüencial existente Criar um algoritmo paralelo novo. Adaptar outro algoritmo paralelo que possa resolver um problema similar.

PROGRAMAÇÃO PARALELA Há três estilos básicos de paralelismo, dependentes da plataforma de execução. Paralelismo Geométrico: o conjunto de dados é dividido e cada processador executa uma cópia do programa em seu conjunto de dados. Paralelismo “Processor Farm”: Caracteriza-se por um processador mestre que supervisiona um grupo de processadores escravos. Paralelismo Pipeline: A aplicação é dividida em tarefas específicas que são distribuídas aos processadores de forma pipeline.

CONTEÚDO INTRODUÇÃO CONCEITOS BÁSICOS ARQUITETURAS PARALELAS PROGRAMAÇÃO PARALELA MULTICOMPUTADORES CONSIDERAÇÕES FINAIS

MULTICOMPUTADORES Ambientes de memória compartilhada utilizam um paralelismo explícito, já que podem-se valer desta memória para ativar os processos paralelos. Ambientes de memória distribuídas devem utilizar um modelo chamado troca de mensagens para comunicação e sincronização das tarefas.

MULTICOMPUTADORES Há dois principais padrões de troca de mensagens: PVM – Parallel Virtual Machine: é o conjunto integrado de bibliotecas e de ferramentas de software, cuja finalidade é emular um sistema computacional concorrente, heterogêneo, flexível e de propósito geral. MPI – Massage Passing Interface: Padrão de interface de troca de mensagens para aplicações que utilizam computadores MIMD com memória distribuída.

MULTICOMPUTADORES Speedup: Relação entre o tempo de execução de um processo em um único processador e a execução em p processadores. Eficiência: Relação entre o speedup e número de processadores. Tseq Tp Sp = Sp p E =

CONTEÚDO INTRODUÇÃO CONCEITOS BÁSICOS ARQUITETURAS PARALELAS PROGRAMAÇÃO PARALELA MULTICOMPUTADORES CONSIDERAÇÕES FINAIS