Perspectivas NVidia para Desktop Tiago Carneiro Pessoa

Slides:



Advertisements
Apresentações semelhantes
Desempenho da Computação Paralela em Ambientes Virtualizados
Advertisements

[Leonardo Garcia Tampelini]
DESENVOLVIMENTO DE SISTEMAS PARA INTERNET
Sistemas Operacionais - 1
MULTICORE Aluno: Gabriel Antonio Leite São processadores caracterizados por apresentar vários cores (núcleos de processamento) em um único chip.
JOGOS.
ARQUITETURAS RISC E CISC
Processador Pentium 4 MO401 – Arquitetura de Computadores I
Aproveitamento do Processador
GPGPU.
Breno Meneghetti Lucas Silveira Pier Michelon Rafael Hickmann
Estudo comparativo entre as arquiteturas Opteron e Itanium
Computing Unified Device Architecture (CUDA)
Microsoft XBOX Lançado em 2001 pela Microsoft, numa tentativa de ganhar espaço num mercardo tradicionalmente dominado por grandes empresas japonesas: Nitendo,
Cluster Multiusuários Reunião de Lançamento 01 fevereiro 2007.
Lógica de Programação UNIDADE 1 – Introdução a) Computador
Arquitetura de Computadores
Trabalho realizado por: Filipa Almeida, nº3 Rita Matias, nº5 Inês Costa, nº12 9ºB.
CUDA vs OpenCL Introdução.
Introdução a GPGPU CUDA: arquitetura de computação paralela para GPGPU.
Faculdade de Computação Universidade Federal de Mato Grosso do Sul
Tópicos em redes e sistemas distribuídos Carlos Oberdan Rolim Ciência da Computação Sistemas de Informação.
Metodologia da Pesquisa em Ciência da Computação - INE – Luís Fernando Custódio Seminário de Metodologia GPU em Ambientes Compartilhados.
Funcionamento básicos do Windows 8
Montagem e Manutenção de Computador I
César L. B. Silveira Prof. Dr. Luiz G. da Silveira Jr.
Bruno Altieri – Leandro Dal Pizzol - Luís Fernando Custódio
Computação de Alto Desempenho Utilizando Placas Gráficas Divino César S. Lucas Universidade Católica de Goiás
Tudo sobre BIOS.
BD Distribuído Conceitos Iniciais.
Universidade de Mogi das Cruzes Tec
POLIMIG Curso Técnico em Informática Disciplina: Hardware
Computação L1: Infra-Estrutura Básica
Componentes do Computador
Uma Análise das plataformas CUDA e OpenCL usando MetaHeurísticas aplicadas no Problema do Caixeiro Viajante Aluno: Hedley Luna Gois Oriá Disciplina: Introdução.
Sistemas Operacionais
SISTEMAS OPERACIONAIS I
GPUs GeForce GTX 500. NVIDIA Confidential “A GeForce GTX 580 é um gigantesco sucesso da NVIDIA.” – HardOCP.
i TIC 7/8 Funcionamento de um computador Informação 7
Single-Chip Cloud Computer (SCC) Um processador many-core experimental desenvolvido pela Intel Labs.
Sistemas Operacionais
Simulação distribuída e paralela Gabriel Baracuhy Thiago Martins.
Arquiteturas RISC x CISC
Introdução O que se espera de um sistema de computação?
Sistemas Operacionais
CURSO DE INFORMÁTICA MÓDULO BÁSICO.
DSC/CEEI/UFCG Hardware (Parte I) Introdução à Informática.
Componentes de Hardware
IMM Bus 9ºG – EB23 Rainha Santa Isabel IMM Pedro Amaro.
NVIDIA Confidential NVIDIA GEFORCE GTX 560 Ti. © NVIDIA Confidential – Não distribuir 2 Julho de 2010: A GeForce GTX 460 atinge o ponto ideal GeForce.
F.F.S.,Lda.. Computador HP M9475PT sem Monitor Processador: Intel Core 2 Quad Q9400 Memória: 4 GB DDR2 Disco Rígido: 1 TB 3G SATA 5400 Rpm Placa Gráfica:
PLATAFORMAS MULTIMÍDIA
Slides before 1st Section Divider
Multiparadigma das Comunicações em Java para Grid Computing Fernanda R. Ramos Luiz Felipe Marco Eiterer Profº Alcides Calsavara, Ph.D.
Arquitetura de Computadores Processadores 2 Waldemiro Arruda.
INTRODUÇÃO À COMPUTAÇÃO
GPGPU: OpenCL, CUDA e Shaders
Escola Secundária De Caldas Das Taipas Técnico De Gestão De Equipamentos Informáticos Ano Lectivo: 2011/2012 Disciplina: S.D.A.C Professor: Daniel Rebelo.
TRABALHO INTRODUÇÃO À INFORMÁTICA
CURSO TÉCNICO DE INFORMÁTICA ESCOLA E. CASSIANO MENDES
Paradigmas de Processamento Paralelo na Resolução do Fractal de Mandelbrot Bruno Pereira dos Santos Dany Sanchez Dominguez Universidade Estadual de Santa.
Engenharia de Sistemas (Lato Sensu) Victor Costa de Alemão Cisneiros Hudson Ramos Aracaju/SE COMPARAÇÃO ENTRE SERVIDORES WEB APACHE HTTP SERVER E NGINX.
COMPILADORES 02 Prof. Marcos. COMPILADORES Do Programa à Execução Computadores das mais variadas arquiteturas têm funcionamento:
Sistemas Operacionais de Redes Virtualização IGOR ALVES.
Projeto do CBPF Grid SSOLAR Bruno Lima Felipe da Matta Roberto Kishi Thagor Baiocco Tiago Olimpio
Anderson Braga de Avila 1.  Usar todos os recursos computacionais no sistema — CPUs, GPUs e outros processadores  Modelo de programação paralela eficiente.
OpenCL Eliane Siegert. Estrutura – Princípio Geral de Funcionamento – Exemplos de Aplicações – Modelo de Programação – Linguagens Suportadas – Exemplos.
GPU Programming Frederico José Camiloti Dalllalana Orientador: Prof. Dr. Luis Gustavo Nonato.
Introdução a GPU e CUDA.
Transcrição da apresentação:

Perspectivas NVidia para Desktop Tiago Carneiro Pessoa

Agenda Introdução GPGPU O que é? Motivação Dificuldades Nova era: Processamento Unificado. Antigo Funcionamento do Pipeline. Processamento Unificado. NVidia CUDA e outras Soluções.

Introdução GPGPU Computação de Propósito Geral em Unidades de Processamento Gráfico. É o ato de utilizar a placa de vídeo para realizar cálculos que tradicionalmente eram realizados pela CPU.

Introdução GPGPU Motivação: GPUs se tornaram processadores altamente paralelos, com centenas de núcleos e uma largura de banda de memória muito alta, levando assim, a um poder computacional muito a frente dos processadores comumente utilizado nos desktops (HALFILL, 2008). São de longe o componente mais subutilizado de um computador.

Introdução GPGPU

Introdução GPGPU

Introdução GPGPU

Introdução GPGPU - Dificuldades O programador precisava mapear sua aplicação em algo que a placa de vídeo conseguisse entender. O programador era obrigado a utilizar “Shadding Languages” tais como NVidia’s CG, OpenGL’s GLSL ou Microsoft HLSL.

Introdução GPGPU Uma das primeiras utilizações de sucesso: Stanford University, for GPUs  Utilizava placas ATI Radeon X1900 e X1950 e conseguiram uma performance entre 10 vezes e 20 vezes maior que a dos processadores Core 2 Duo recém lançados.

Uma nova era: Processamento Unificado Estágios Básicos do Pipeline de uma GPU:

Processamento Unificado Estágios Básicos do Pipeline de uma GPU: Qual o problema com esse modelo linear antigo?

Processamento Unificado Estágios Básicos do Pipeline de uma GPU: Qual o problema com esse modelo linear antigo?

Processamento Unificado Estágios Básicos do Pipeline de uma GPU: Solução? Processamento Unificado.

Processamento Unificado Estágios Básicos do Pipeline de uma GPU: Solução? Processamento Unificado.  2006: NVidia lança a geração G80.  “NVidia GeForce 8800 GPU: World’s First Unified Directx 10 GPU Delivering Unparalleled Performance and Image Quality.  Juntamente com o lançamento da GeForce 8, lança a plataforma Tesla e o NVidia Physx.

Processamento Unificado Estágios Básicos do Pipeline de uma GPU: Solução? Processamento Unificado.  A GeForce 8800 GTX possui 128 processadores de fluxo, cada um a 1,35Ghz, divididos em 8 núcleos de processamento.  Com o advento do processamento unificado a placa de vídeo tornou-se um processador genérico de ponto flutuante.  Para usar todo esse poder computacional, em 2006 a NVidia lançou a API CUDA – Compute Unified Device Archicteture.

Processamento Unificado

NVidia’s CUDA CUDA API que permite utilizar as poderosas GPUs da NVidia em computação massivamente paralela de alto desempenho. Requer que o código seja escrito em C ou C++. Programador adicionar algumas diretrizes ao código, como em OpenMP ou MPI. Na região executada pela GPU permite-se apenas a utilização de C puro e não pode haver recursão.

NVidia’s CUDA CUDA Requer que o código seja escrito em C ou C++. Não há necessidade de gerenciamento de threads. O código é independente de quantos processadores de fluxo existem na GPU. Compilador nvcc. Compila a região CUDA, é necessário a utilização de outro compilador para compilar a região “não-CUDA”. Pode ser utilizada em conjunto com outras APIs, tais como OpenMP e MPI.

NVidia’s CUDA CUDA Em 2008 o Instituto de Tecnologia de Tóquio adquiriu um módulo NVidia Tesla com 170 computadores do tipo Tesla-1070, cara um com um pico teórico de um Teraflop. A CESUP-RS adquiriu um novo cluster contendo módulos NVidia e AMD.

NVidia’s CUDA CUDA CESUP-RS: 36 (trinta e seis) nós de processamento (30 Thin Nodes e 6 Fat Nodes). 2 (dois) nós de gerência. 2 (dois) nós Tesla (Tesla Head Nodes). 1 (um) nó Firestream (Firestream Head Node). 1 (um) "InfiniBand Switch Router". Total de 84 TB em disco. Total de 1248 GB de memória. Performance total de Tflops.

NVidia’s CUDA CUDA

NVidia’s CUDA CUDA

Outras Soluções GPGPU OpenAL (API) Lançada em 2008, é uma tentativa de unificação, análoga ao OpenGL e ao OpenAL, para a criação de Kernels. Iniciativa da IBM, NVidia, Intel e AMD.

Outras Soluções GPGPU AMD Firestream Da mesma maneira que a NVidia, a AMD também possui sua API para utilizar as placas de vídeo AMD (antigas ATI) como um computador paralelo de alto desempenho.

Outras Soluções GPGPU Intel Larabee Projeto da Intel que pretende univiar GPU e CPU no mesmo dispositivo. Diferentemente das GPUs, ela também suportará instruções X86 e poderá rodar qualquer aplicação que não seja gráfica. Criada para competir com as soluções GPGPU NVidia e AMD (ATI). Existirá coerência entre os núcleos. Previsão de lançamento: meados de 2010.

GPGPU Na Internet gpgpu.org NVidia’s CUDA Zone: Top Coder AMD Firestream

Obrigado!