A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

II Sistemas Operacionais Professor Cláudio Geyer

Apresentações semelhantes


Apresentação em tema: "II Sistemas Operacionais Professor Cláudio Geyer"— Transcrição da apresentação:

1 II Sistemas Operacionais Professor Cláudio Geyer
Instituto de Informática - UFRGS

2 Autoria Alunos de turma de SOII C. Geyer Versão V13,

3 Súmula Tópicos da disciplina SO x Programação concorrente
Conceito Tarefa Tipos de PC Memória distribuída x compartilhada Variações Programação Distribuída Programação Paralela

4 Tópicos ensinados no Curso
Programação concorrente: especificação de concorrência, atomicidade; sincronização, exclusão mútua, sinalização; semáforos e monitores; troca de mensagens: conceitos, exemplo difusão; dead-lock;

5 Tópicos ensinados no Curso
Sistemas distribuídos: objetivos, conceitos, questões de projeto; modelo cliente/servidor; RPC; estudo de casos : servidor RPC de tempo; ordem de eventos, relógio lógico, exclusão mútua; Algoritmos distribuídos; arquivos distribuídos : interfaces, arquiteturas, semântica e questões de implementação; comunicação coletiva; Web Services (WS); transações, replicação, p2p.

6 Pré-requisitos para compreensão do conteúdo :
Noções de Sistemas Operacionais : Processos, escalonamento de processos, espera ativa. Conhecimento de estruturas básicas de programação : comandos : if , while, for, procedures, functions , etc ; tipos de variáveis : registro, ponteiro, etc ; manipulação de arquivos.

7 Índice explicativo de cada tópico
Conceitos básicos de programação concorrente: SO x PC; PC; Programação Distribuída; Programação Paralela, Exemplos de PC; Vantagens, aplicações, abordagens operacional X axiomática. Expressão da concorrência: Grafos de processos; fork/join; parbegin/end; vetor de processos. Sincronização: Atomicidade definição por software e hardware; exemplo de não- atomicidade; notação do Andrews);

8 Índice explicativo de cada tópico
Sincronização: Exclusão mútua conceitos, requisitos, mutexbegin/end, implementações falsa, com alternância; implementação para 2 processos e por hardware. Semáforos conceitos, usos, implementação com filas e block/wakeup; problema do produtor/consumidor; problema dos leitores/escritores. Monitores conceitos e implementação; exemplo dos filósofos.

9 Índice explicativo de cada tópico
Troca de Mensagens: Introdução a sistemas distribuídos, mapeamento, conceitos básicos; Assíncrona Conceitos e propriedades; Exemplo produtor/consumidor; Difusão com probe. Síncrona Conceitos e propriedades. RPC Exemplo do servidor de tempo.

10 Índice explicativo de cada tópico
Sistemas Operacionais Distribuídos Conceitos e tipos; Questões de projeto; Modelo cliente/servidor; RPC Sistema de arquivos distribuídos: conceitos e questões de projeto. Threads Comunicação coletiva WS Transações, replicação e p2p

11 Índice explicativo de cada tópico
Deadlock Conceitos, tipos de tratamento, prevenção;

12 Bibliografia recomendada
Andrews, G. Concurrent Programming: Principles and Practive. The Benjamim Cummings, 1991. Silberschatz, A. Operating Systems Concepts. Addison-Wesley, 5º edição, 1992. Tanenbaum, A. S. Modern Operating Systems. Prentice-Hall, 1992. Tanenbaum, A. S. Distributed Operating Systems. Prentice-Hall, 1995. Couloris, G Distributed Systems : Concepts and Design. Addison-Wesley, 2º edição, 1994. Chow, R Distributed OS and Algorithms. Addison-Wesley, 1997. Apostila do Professor Simão Toscani

13 Ambiente e Linguagens Concorrentes
Unix e/ou Windows C ou C++ biblioteca de processos; biblioteca de sockets; biblioteca de threads; RPC; biblioteca de variáveis compartilhadas. Java, C#, Objetive C Python MPI, OpenMPI JSR (SR em Java)

14 Ambiente e Linguagens Concorrentes
Windows C ou C++ biblioteca POSIX; biblioteca NT;

15 Sistema Operacional x PC
Gerenciar recursos de forma eficiente. Exemplo: através de I/O concorrente (duas ou mais aplicações concorrentes); escalonamento (time- sharing). Dentro de uma única máquina pode existir programação concorrente. Programa seqüencial é um código que especifica a execução seqüencial, uma lista de comandos. Programa concorrente pode ser visto como um programa composto de vários (> 1) programas seqüenciais, executados concorrentemente.

16 Programação Concorrente
Conceito Programas com diversas partes em execução concorrente, em uma ou mais CPUs) Pode haver programação concorrente em Redes, Máquinas Paralelas, multicores, GPUs ou em uma única máquina simples. Analogia com sistemas reais Podemos citar como exemplos de atividades concorrentes, onde mais de um evento está ocorrendo ao mesmo tempo: Aeroporto; Trânsito; Porto; Linha de montagem de uma fábrica.

17 Programação Concorrente
Tarefa (task) nome normalmente associado a uma parte concorrente independe do modelo de programação paradigma linguagem construção ou abstração usada para representá-la

18 Programação Concorrente
Vantagens Expressão mais fácil de certos problemas (concorrentes); exemplos: simulação de sistemas naturais; jogos; Uso eficiente dos recursos de hardware; I/O concorrente a CPU Aumento do desempenho de alguns programas (paralelos); (tentar) Usar todas as CPUs todo o tempo com trabalho útil. Tarefa normalmente muito complexa

19 Programação Concorrente
Problemas Sincronização: dependência temporal uma tarefa necessita da conclusão da anterior não podem ser executadas concorrentemente. acesso concorrente a um recurso compartilhado pode gerar estados (do recurso) inconsistentes recursos: variáveis, arquivos, ... Escalonamento garantir um bom (eficiente, …) uso dos recursos disputa de recursos do sistema, tais como cpu, memória, disco, impressora eventualmente a cargo do programador (não do SO)

20 Programação Concorrente
Exemplo de Programa Tendo a equação: (2*A)+((C-D)/3), algumas partes podem ser executadas em paralelo, como segue: 2*A + Início C-D Fim / 3

21 Programação Concorrente
Aplicações típicas: Núcleo do Sistema Operacional; Núcleo do SGBD (vários clientes acessam o BD); Servidores em geral: multithreaded; Interfaces gráficas; Jogos; Simulação; Aplicações cpu intensivas; Futuro com multicores e GPUs: (quase) todas as aplicações?

22 Programação Concorrente
Aplicações típicas: Multiagentes; Aplicações para internet; Tolerância a Falhas; Alto desempenho ou programação paralela.

23 Programação Distribuída
Conceito Entende-se por programação distribuída (ou processamento distribuído) como sendo um programa concorrente executado sobre um sistema de hardware com memória distribuída. Obs: alguns autores desconsideram a memória Um programa distribuído pode acessar a memória de vários computadores e não só de uma única máquina. Via protocolos especiais, por software Deve ser possível criar e gerenciar processos em outros computadores. Nem sempre de forma simples

24 Programação Paralela Conceito
Programação paralela pode ser vista como um programa concorrente (equivalente a um seqüencial para o mesmo problema) mas com o objetivo adicional da redução do tempo de resposta. Um programa paralelo pode compartilhar a mesma memória ( memória não distribuída ) e vários processadores. Ou pode ser um programa distribuído

25 Principais Aspectos da PC
Aspectos clássicos Expressão da concorrência Sincronização Comunicação criação e controle das partes concorrentes redução da concorrência necessária para produção de resultados corretos

26 Principais Aspectos da PC
Comunicação troca de informações entre as partes concorrentes necessária para a produção de resultados finais, consistentes também chamada de IPC InterProcess Communication

27 Tipos básicos de PC Em função da arquitetura (hardware)
memória compartilhada memória distribuída

28 Tipos básicos de PC PC em memória compartilhada
sincronização explícita mais complexa exige primitivas e técnicas de sincronização comunicação implícita leitura e escrita de variáveis compartilhadas simples

29 Tipos básicos de PC PC em memória distribuída comunicação explícita
denominada troca de mensagens mais complexa exige primitivas e técnicas de comunicação sincronização implícita via semântica da comunicação simples, mas nem tanto

30 Exercícios com resposta :
Desenhe um grafo como o visto anteriormente, paralelizando o máximo possível as instruções da equação ((A+B)*C)+(C+D*E). De exemplos de aplicações que onde é interessane usar programação paralela para redução do tempo de resposta. Um programa pode ser classificado como paralelo e distribuído ao mesmo tempo ? Justifique.

31 Respostas : Computação gráfica ( renderização, reconhecimento de padrões, criação de texturas, etc ) Problemas de otimização linear ( processamento dos ótimos locais em paralelo ) Cálculos vetoriais ( soma, subtração, multiplicação, divisão, concatenação de vetores ) A+B * + Fim Início C + D * E

32 Respostas : Sim, uma das opções não exclui a outra.
Um programa de rede pode ser distribuído ( memória diferente para cada nó de processamento) e também pode ser paralelo ( tarefas divididas pelas diversas máquinas da rede ) de forma a diminuir o tempo de resposta.

33 Exercícios complementares :
Os microprocessadores modernos em geral são superescalares, ou seja, dividem o processamento de um programa em duas filas de execução, de forma que partes distintas de um programa são executadas em paralelo. Por que os programas executados em superescalares não são considerados programas paralelos ? Por que os programas de simulação são melhor implementados usando concorrência ? Programas de navegação pela Internet ( Netscape , Internet Explore ) são concorrentes ? Por quê ?

34 Atividade em Grupo Pesquise as linguagens de programação que você usa e ou as linguagens de programação que estão em foco e descubra se elas possuem suporte para programação concorrente, tais como : Ambiente de programação adequado à concorrência ; Comandos específicos ; Bibliotecas ; Funções e Procedimentos ; Depois discuta com seus colegas o que você descobriu, mostrando as vantagens e desvantagens de cada linguagem.

35 Conclusões Um programa concorrente é mais difícil de ser implementado
devido à inclusão de sincronização no acesso ao código e às variáveis Devido à inclusão de primitivas de comunicação Algumas problemas e aplicações são concorrentes por definição e possuem um melhor resultado se implementados concorrentemente.

36 Conclusões Programação paralela é utilizada quando o principal objetivo é diminuir o tempo de resposta. Programação distribuída deve levar em conta o tempo perdido com a comunicação entre as CPUs. Incluindo a paralela distribuída

37 Auto-avaliação : Responda as questões abaixo, sem rever os slides anteriores, para testar seus conhecimentos adquiridos até agora : Quais os pré-requisitos para aprender PC? Qual a linguagem básica para ilustração dos conceitos de PC? Quais ambientes são apropriados para PC? Qual a relação entre SO e PC? O que é um programa concorrente? Quais os 3 principais componentes da PC? Cite 3 exemplos de aplicações concorrentes : Cite 2 vantagens de programação concorrente :

38 Auto-avaliação : Por que a sincronização é importante ?
Qual o conceito de programa paralelo e de programa distribuído ? O que é uma tarefa? Quais os tipos principais de sincronização?

39 Auto-avaliação : Qual o “melhor” livro para PC?
Qual o “melhor” para SOD? Qual o livro que contém ambos os tópicos, PC e SOD? Para PC, quais livros são suficientes para a disciplina?

40 Auto-avaliação : Quais os tipos de PC conforme hw?
Em qual tipo a sincronização é complicada? Em qual tipo a comunicação é complicada? Se você conseguiu responder a estas perguntas, está apto a prosseguir no curso, senão releia os slides.

41 Auto-avaliação Principal PC? PD? PP? Aplicações da PC?
Vantagens da PC? Desvantagens da PC? Principais componentes da PC?

42 Auto-avaliação Principal Tipos de sincronização?
Tipos de arquitetura x PC?

43 Auto-avaliação Principal Sincronização em memória compartilhada?
Complexidade? Importância? Sincronização em memória distribuída? Idem Idem para comunicação?


Carregar ppt "II Sistemas Operacionais Professor Cláudio Geyer"

Apresentações semelhantes


Anúncios Google