A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Sistemas Operacionais II Professor Cláudio Geyer Instituto de Informática - UFRGS.

Apresentações semelhantes


Apresentação em tema: "Sistemas Operacionais II Professor Cláudio Geyer Instituto de Informática - UFRGS."— Transcrição da apresentação:

1 Sistemas Operacionais II Professor Cláudio Geyer Instituto de Informática - UFRGS

2 Autoria  Alunos de turma de SOII  C. Geyer  Versão –V13,

3 Súmula  Tópicos da disciplina  SO x Programação concorrente  Programação concorrente –Conceito –Tarefa –Tipos de PC –Memória distribuída x compartilhada  Variações –Programação Distribuída –Programação Paralela

4 Tópicos ensinados no Curso  Programação concorrente:  especificação de concorrência, atomicidade;  sincronização, exclusão mútua, sinalização;  semáforos e monitores;  troca de mensagens: conceitos, exemplo difusão;  dead-lock;

5 Tópicos ensinados no Curso  Sistemas distribuídos:  objetivos, conceitos, questões de projeto;  modelo cliente/servidor; RPC;  estudo de casos : servidor RPC de tempo;  ordem de eventos, relógio lógico, exclusão mútua;  Algoritmos distribuídos;  arquivos distribuídos : interfaces, arquiteturas, semântica e questões de implementação;  comunicação coletiva;  Web Services (WS);  transações, replicação, p2p.

6 Pré-requisitos para compreensão do conteúdo :  Noções de Sistemas Operacionais : Processos, escalonamento de processos, espera ativa.  Conhecimento de estruturas básicas de programação : comandos : if, while, for, procedures, functions, etc ; tipos de variáveis : registro, ponteiro, etc ; manipulação de arquivos.

7 Índice explicativo de cada tópico  Conceitos básicos de programação concorrente: –SO x PC; PC; Programação Distribuída; Programação Paralela, Exemplos de PC; –Vantagens, aplicações, abordagens operacional X axiomática.  Expressão da concorrência: –Grafos de processos; fork/join; parbegin/end; vetor de processos.  Sincronização: –Atomicidade definição por software e hardware; exemplo de não- atomicidade; notação do Andrews);

8 Índice explicativo de cada tópico  Sincronização: –Exclusão mútua conceitos, requisitos, mutexbegin/end, implementações falsa, com alternância; implementação para 2 processos e por hardware. –Semáforos conceitos, usos, implementação com filas e block/wakeup; problema do produtor/consumidor; problema dos leitores/escritores. –Monitores conceitos e implementação; exemplo dos filósofos.

9 Índice explicativo de cada tópico  Troca de Mensagens: –Introdução a sistemas distribuídos, mapeamento, conceitos básicos; –Assíncrona Conceitos e propriedades; Exemplo produtor/consumidor; Difusão com probe. –Síncrona Conceitos e propriedades. –RPC Conceitos e propriedades; Exemplo do servidor de tempo.

10 Índice explicativo de cada tópico  Sistemas Operacionais Distribuídos –Conceitos e tipos; –Questões de projeto; –Modelo cliente/servidor; RPC –Sistema de arquivos distribuídos: conceitos e questões de projeto. –Threads –Comunicação coletiva –WS –Transações, replicação e p2p

11 Índice explicativo de cada tópico  Deadlock –Conceitos, tipos de tratamento, prevenção;

12 Bibliografia recomendada  Andrews, G. Concurrent Programming: Principles and Practive. The Benjamim Cummings,  Silberschatz, A. Operating Systems Concepts. Addison-Wesley, 5º edição,  Tanenbaum, A. S. Modern Operating Systems. Prentice-Hall,  Tanenbaum, A. S. Distributed Operating Systems. Prentice-Hall,  Couloris, G. Distributed Systems : Concepts and Design. Addison-Wesley, 2º edição,  Chow, R. Distributed OS and Algorithms. Addison-Wesley,  Apostila do Professor Simão Toscani

13 Ambiente e Linguagens Concorrentes  Unix e/ou Windows –C ou C++ biblioteca de processos; biblioteca de sockets; biblioteca de threads; RPC; biblioteca de variáveis compartilhadas. –Java, C#, Objetive C –Python –MPI, OpenMPI –JSR (SR em Java)

14 Ambiente e Linguagens Concorrentes  Windows –C ou C++ biblioteca POSIX; biblioteca NT;

15 Sistema Operacional x PC  Gerenciar recursos de forma eficiente. –Exemplo: através de I/O concorrente (duas ou mais aplicações concorrentes); escalonamento (time- sharing).  Dentro de uma única máquina pode existir programação concorrente.  Programa seqüencial é um código que especifica a execução seqüencial, uma lista de comandos.  Programa concorrente pode ser visto como um programa composto de vários (> 1) programas seqüenciais, executados concorrentemente.

16 Programação Concorrente  Conceito –Programas com diversas partes em execução concorrente, em uma ou mais CPUs) –Pode haver programação concorrente em Redes, Máquinas Paralelas, multicores, GPUs ou em uma única máquina simples.  Analogia com sistemas reais –Podemos citar como exemplos de atividades concorrentes, onde mais de um evento está ocorrendo ao mesmo tempo: Aeroporto;Trânsito; Porto; Linha de montagem de uma fábrica.

17 Programação Concorrente  Tarefa (task) –nome normalmente associado a uma parte concorrente –independe do modelo de programação paradigma linguagem construção ou abstração usada para representá-la

18 Programação Concorrente  Vantagens –Expressão mais fácil de certos problemas (concorrentes); exemplos: simulação de sistemas naturais; jogos; –Uso eficiente dos recursos de hardware; I/O concorrente a CPU –Aumento do desempenho de alguns programas (paralelos); –(tentar) Usar todas as CPUs todo o tempo com trabalho útil. Tarefa normalmente muito complexa

19 Programação Concorrente  Problemas –Sincronização: dependência temporal –uma tarefa necessita da conclusão da anterior não podem ser executadas concorrentemente. acesso concorrente a um recurso compartilhado –pode gerar estados (do recurso) inconsistentes –recursos: variáveis, arquivos,... –Escalonamento garantir um bom (eficiente, …) uso dos recursos –disputa de recursos do sistema, tais como cpu, memória, disco, impressora eventualmente a cargo do programador (não do SO)

20 Programação Concorrente  Exemplo de Programa –Tendo a equação: (2*A)+((C-D)/3), algumas partes podem ser executadas em paralelo, como segue: Início 3 C-D 2*A + / Fim

21 Programação Concorrente  Aplicações típicas: –Núcleo do Sistema Operacional; –Núcleo do SGBD (vários clientes acessam o BD); –Servidores em geral: multithreaded; –Interfaces gráficas; –Jogos; –Simulação; –Aplicações cpu intensivas; –Futuro com multicores e GPUs: (quase) todas as aplicações?

22 Programação Concorrente  Aplicações típicas: –Multiagentes; –Aplicações para internet; –Tolerância a Falhas; –Alto desempenho ou programação paralela.

23 Programação Distribuída  Conceito –Entende-se por programação distribuída (ou processamento distribuído) como sendo um programa concorrente executado sobre um sistema de hardware com memória distribuída. Obs: alguns autores desconsideram a memória –Um programa distribuído pode acessar a memória de vários computadores e não só de uma única máquina. Via protocolos especiais, por software –Deve ser possível criar e gerenciar processos em outros computadores. Nem sempre de forma simples

24 Programação Paralela  Conceito –Programação paralela pode ser vista como um programa concorrente (equivalente a um seqüencial para o mesmo problema) mas com o objetivo adicional da redução do tempo de resposta. –Um programa paralelo pode compartilhar a mesma memória ( memória não distribuída ) e vários processadores. –Ou pode ser um programa distribuído

25 Principais Aspectos da PC  Aspectos clássicos –Expressão da concorrência –Sincronização –Comunicação  Expressão da concorrência –criação e controle das partes concorrentes  Sincronização –redução da concorrência –necessária para produção de resultados corretos

26 Principais Aspectos da PC  Comunicação –troca de informações entre as partes concorrentes –necessária para a produção de resultados finais, consistentes –também chamada de IPC InterProcess Communication

27 Tipos básicos de PC  Em função da arquitetura (hardware) –memória compartilhada –memória distribuída

28 Tipos básicos de PC  PC em memória compartilhada –sincronização explícita mais complexa exige primitivas e técnicas de sincronização –comunicação implícita leitura e escrita de variáveis compartilhadas simples

29 Tipos básicos de PC  PC em memória distribuída –comunicação explícita denominada troca de mensagens mais complexa exige primitivas e técnicas de comunicação –sincronização implícita via semântica da comunicação simples, mas nem tanto

30 Exercícios com resposta :  Desenhe um grafo como o visto anteriormente, paralelizando o máximo possível as instruções da equação ((A+B)*C)+(C+D*E).  De exemplos de aplicações que onde é interessane usar programação paralela para redução do tempo de resposta.  Um programa pode ser classificado como paralelo e distribuído ao mesmo tempo ? Justifique.

31 Respostas :   Computação gráfica ( renderização, reconhecimento de padrões, criação de texturas, etc ) Problemas de otimização linear ( processamento dos ótimos locais em paralelo ) Cálculos vetoriais ( soma, subtração, multiplicação, divisão, concatenação de vetores ) Início D * E C A+B * + Fim+

32 Respostas :  Sim, uma das opções não exclui a outra. Um programa de rede pode ser distribuído ( memória diferente para cada nó de processamento) e também pode ser paralelo ( tarefas divididas pelas diversas máquinas da rede ) de forma a diminuir o tempo de resposta.

33 Exercícios complementares :  Os microprocessadores modernos em geral são superescalares, ou seja, dividem o processamento de um programa em duas filas de execução, de forma que partes distintas de um programa são executadas em paralelo. Por que os programas executados em superescalares não são considerados programas paralelos ?  Por que os programas de simulação são melhor implementados usando concorrência ?  Programas de navegação pela Internet ( Netscape, Internet Explore ) são concorrentes ? Por quê ?

34 Atividade em Grupo  Pesquise as linguagens de programação que você usa e ou as linguagens de programação que estão em foco e descubra se elas possuem suporte para programação concorrente, tais como : –Ambiente de programação adequado à concorrência ; –Comandos específicos ; –Bibliotecas ; –Funções e Procedimentos ;  Depois discuta com seus colegas o que você descobriu, mostrando as vantagens e desvantagens de cada linguagem.

35 Conclusões  Um programa concorrente é mais difícil de ser implementado  devido à inclusão de sincronização no acesso ao código e às variáveis  Devido à inclusão de primitivas de comunicação  Algumas problemas e aplicações são concorrentes por definição e possuem um melhor resultado se implementados concorrentemente.

36 Conclusões  Programação paralela é utilizada quando o principal objetivo é diminuir o tempo de resposta.  Programação distribuída deve levar em conta o tempo perdido com a comunicação entre as CPUs.  Incluindo a paralela distribuída

37 Auto-avaliação :  Responda as questões abaixo, sem rever os slides anteriores, para testar seus conhecimentos adquiridos até agora :  Quais os pré-requisitos para aprender PC?  Qual a linguagem básica para ilustração dos conceitos de PC?  Quais ambientes são apropriados para PC?  Qual a relação entre SO e PC?  O que é um programa concorrente?  Quais os 3 principais componentes da PC?  Cite 3 exemplos de aplicações concorrentes :  Cite 2 vantagens de programação concorrente :

38 Auto-avaliação :  Por que a sincronização é importante ?  Qual o conceito de programa paralelo e de programa distribuído ?  O que é uma tarefa?  Quais os tipos principais de sincronização?

39 Auto-avaliação :  Qual o “melhor” livro para PC?  Qual o “melhor” para SOD?  Qual o livro que contém ambos os tópicos, PC e SOD?  Para PC, quais livros são suficientes para a disciplina?

40 Auto-avaliação :  Quais os tipos de PC conforme hw?  Em qual tipo a sincronização é complicada?  Em qual tipo a comunicação é complicada?  Se você conseguiu responder a estas perguntas, está apto a prosseguir no curso, senão releia os slides.

41 Auto-avaliação  Principal –PC? –PD? –PP? –Aplicações da PC? –Vantagens da PC? –Desvantagens da PC? –Principais componentes da PC?

42 Auto-avaliação  Principal –Tipos de sincronização? –Tipos de arquitetura x PC?

43 Auto-avaliação  Principal –Sincronização em memória compartilhada? Complexidade? Importância? –Sincronização em memória distribuída? Idem –Idem para comunicação?


Carregar ppt "Sistemas Operacionais II Professor Cláudio Geyer Instituto de Informática - UFRGS."

Apresentações semelhantes


Anúncios Google