Programação concorrente:

Slides:



Advertisements
Apresentações semelhantes
Semáforos Eduardo Nicola F. Zagari
Advertisements

Sistemas Operacionais
Sistemas Operacionais
Sistemas Operacionais
Sistemas Operacionais Sincronismo e Comunicação entre processos
SISTEMAS OPERACIONAIS (SO) Aula 5 Luciana A. F. Martimiano 2002
Sincronização de Processos (1)
Sistema Operacional Sincronização e Comunicação entre Processos
Sincronismo e Comunicação entre Processos
Sincronismo e Comunicação entre Processos
Arquitetura de Sistemas Operacionais
Monitores.
Conceitos de Programação Paralela - 2
Chapter 4: Threads.
Sistemas Operacionais II
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Departamento de Sistemas de Computação SSC SISTEMAS OPERACIONAIS I Aula.
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Departamento de Sistemas de Computação SSC SISTEMAS OPERACIONAIS I Turmas.
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Departamento de Sistemas de Computação SSC SISTEMAS OPERACIONAIS I Turmas.
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Departamento de Sistemas de Computação SSC SISTEMAS OPERACIONAIS I Aulas.
Walfredo Cirne Threads Walfredo Cirne
Sincronização de Processos (5)
Sincronização de Processos (4)
Sincronização de Processos (1)
Sincronização de Processos (3)
Sincronização de Processos (5) - Monitores -
Sincronização de Processos (2)
Sincronização e Comunicação entre Processos
e comunicação entre Processos
Sistemas Operacionais
Exclusão Mútua A solução mais simples para evitar os problemas de compartilhamento é impedir que dois ou mais processos estiver acessando determinado recurso,
Sistemas Operacionais I
Monitores.
Unidade 3 Controle de Concorrência
Programação concorrente:
Sistemas operacionais
Sistemas Distribuídos
Concorrência STRD.
Alexandre Mota/Augusto Sampaio {acm,
Conteúdo Processos e threads Partes do processo
Processos.
Processos.
Concorrência e thread Petrônio Júnior(pglj) Márcio Neves(mmn2)
Processos.
SISTEMAS OPERACIONAIS I
Sistemas operacionais
Troca de Mensagens Programação concorrente
Sistemas Operacionais
Sistemas Operacionais
Capítulo 4: Processos.
Faculdade Pernambucana - FAPE
Video Capítulo 7: Sincronização de Processos. Silberschatz, Galvin and Gagne  Video Operating System Concepts Assuntos n Cenário n O problema.
Modelos de Comunicação em Sistemas Distribuídos
©André Santos, Concorrência: Sincronização de fina granularidade André Santos CIn-UFPE.
Exclusão Mútua com Espera Ociosa (1)
Processos Concorrentes
Redes e Sistemas Distribuídos II – Cód Prof. MSc. Ronnison Reges Vidal.
Sistemas Operacionais Distribuídos
Capítulo 2 Processos e Threads 2.1 Processos 2.2 Threads
Programação Concorrente
Sistemas Operacionais 6º Semestre Aula 6 Prof. Carlos Vinícius SERVIÇO NACIONAL DE APRENDIZAGEM COMERCIAL FACULDADE DE TECNOLOGIA.
Faculdade Pernambucana - FAPE Sistemas Operacionais Prof. Flávio Gonçalves da Rocha.
Comunicação Interprocesso Condições de Disputa (corrida)
Faculdade Pernambucana - FAPE Sistemas Operacionais Prof. Flávio Gonçalves da Rocha.
CURSO JAVA BÁSICO Módulo 9 – slide 1 Módulo 10 Threads.
Bruna Cavallero Martins Universidade Católica de Pelotas.
Pearson Education Sistemas Operacionais Modernos – 2ª Edição 1 Sistemas Operacionais IESP - FATEC-PB Professor: Gustavo Wagner.
ProgramaçãoConcorrente Glêdson Elias
SINCRONIZAÇÃO E COMUNICAÇÃO ENTRE PROCESSOS PROF. HORACIO RIBEIRO Sistemas operacionais.
Pearson Education Sistemas Operacionais Modernos – 2ª Edição 1 Sistemas Operacionais FATEC-PB Professor: Gustavo Wagner
Arleys Pereira Nunes de Castro - Mestrando : Modelagem computacional (SENAI-MCTI) Especialista : Sistema distribuídos
Transcrição da apresentação:

Programação concorrente: Problemas, comunicação e sincronização de processo Referências: - Capítulo 2, Modern Operating Systems, A. Tanenbaum - Capítulo 5, Operating Systems: Internals and Design Principles, Willian Stallings - Capítulo 6, Operating System Concepts, Silberschatz & Galvin - http://www.cne.gmu.edu/modules/ipc/ - Apostila *baseado no material do Prof. Orlando Loques - IC/UFF

Conceito de processo Um sistema operacional executa uma variedade de programas de forma “simultânea” Livros usam os termos job e processo quase que indeterminadamente. Processo – um programa em execução; execução do processo deve progredir de maneira seqüencial. Tecnicamente um processo é criado quando um outro processo faz uma chamada ao sistema de criação de processos - Fork  clone identico ao processo que o chamou Inicialização de processos em segundo plano pelo - Daemons

Estados do processo Durante a execução de um processo, ele altera seu estado Novo (new): O processo está sendo criado. Executando (running): instruções estão sendo executadas. Esperando (waiting): O processo está esperando algum evento acontecer. Pronto (ready): O processo está esperando ser associado a um procesador. Terminado (terminated): O processo terminou sua execução.

Diagrama de estados do processo

Tipos de Processamento Concorrente Multiprogramação: vários processos em um sistema monoprocessador Multiprocessamento: vários processos em um sistema multiprocessador (memória comum - acesso compartilhado) Processamento Distribuído: vários processos executando em vários (multi) processadores distribuídos (memória privada - acesso exclusivo)

Programação Concorrente Conceitos e mecanismos para expressar paralelismo potencial Facilita a solução de problemas inerentes associados ao compartilhamento de recursos, à sincronização e à comunicação de processos Provê as abstrações de programação para o tratamento de situações comuns, existentes no mundo real sistemas operacionais sistemas de comunicação sistemas de controle de processos (embutidos) Pode ser suportada através do compartilhamento de um único processador ou por vários processadores operando em paralelo Leva a sistemas eficientes, modulares e bem estruturados

Concorrência: utilizações Compartilhamento de recursos Sincronização de processos Comunicação entre processos

Exemplo de Compartilhamento Atualização de uma variável compartilhada, exemplo: saldo bancário var V:integer; // valor do saldo ... processo T_1; begin . . | V = V +1; <---------------| end; processo T_2; . | { sequência de instruções } load V add 1 store v

Sequência de Execução tempo Processo 1 2 Ação load V add 1 add1 store V storeV Valor de V 4 - 5

Programa simplesmente lê um valor e o imprime Outro Exemplo procedure echo; var out, in: character; begin input(in, keyboard); out := in; output(out, display) end. Programa simplesmente lê um valor e o imprime

P1, P2 executando em processadores separados Cada processo tem uma linha de código executada por vez de forma alternada... Entrada: “xy” Process P2 --- echo input(in,keyboard) ”y” out := in output(out,display) Process P1 --- echo input(in,keyboard) “x” out := in output(out,display) P1 e P2 concorrentes Saídas: “yy” ou “xx” ?! P1 e P2 exclusivos Saída: “xy” ok!

Condições de corrida (Race Conditions) Processos trocam dados, as vezes, através de memória Principal, arquivo... Região/seção crítica Porção de programa que pode levar a condição de disputa Tipo de memória não altera o problema Alguma forma de garantir que apenas 1 esteja na região crítica

Condições de corrida (Race Conditions) Situações onde dois ou mais processos estão acessando dados compartilhados. O resultado final pode variar de acordo com a ordem de execução. Mecanismo de Sincronização. Garante o compartilhamento de recursos e a comunicação entre os processos. Garante a integridade e a confiabilidade dos dados compartilhados.

Condições de corrida (Race Conditions) Exemplo 1: Resultado Final: Contador = 6 (ERRO!) 1 2 7 7 Processo A 7+1 Processo B 7-1 7 3 4 5 6 8 6

Condições de corrida (Race Conditions) Processo A suspenso 2 Exemplo 2: Valor armazenado pelo processo B é perdido. recebe CPU 8 10 Y 1 9 7 8 5 6 próxima entrada 7 4 3 6 X 4 5 7 8 Processo B recebe CPU 3 suspenso 7

Condições de corrida (Race Conditions) Região Crítica: Parte do código onde é feito acesso a recursos compartilhados, e que podem levar a condições de corrida. Ex: Processo A. Código normal Início da Seção Crítica (Protocolo de Entrada) Seção Crítica Término da Seção Crítica (Protocolo de Saída)

Condições de corrida (Race Conditions) Enquanto um processo estiver usando um recurso, os outros devem aguardar até que o recurso esteja liberado. Exclusão Mútua. Exclusividade no acesso a um determinado recurso. A exclusão mútua deve afetar os processos concorrentes quando um deles estiver em uma região crítica.

Regiões críticas Como evitar condições de disputa? Implementar exclusão mútua Um por vez junto à região Garantir que dois ou mais processos estarão sincronizados, e só um dentro da região crítica Operando sobre dados compartilhados

Regiões críticas Quatro requisitos básicos para os algoritmos solucionarem o problema de região crítica Dois ou mais processos NUNCA podem estar simultaneamente na região crítica Não considerar velocidade relativas dos processos Quem estiver fora da região não pode bloquear quem quer entrar Tem que entrar em algum momento!

Regiões críticas

Dois tipos de bloqueios Dois tipos de bloqueio são considerados básicos: bloquear até que um recurso se torne disponível; bloquear até que chegue um sinal de outro processo.

Locks Conceito e Implementações

Locks - Funcionamento Um processo só entra num trecho delimitado pelo par lock/unlock se nenhum outro processo está executando em um outro trecho delimitado dessa maneira. Isto é, o primeiro processo que executa o comando lock passa e tranca a passagem (chaveia a fechadura) para os demais. O comando unlock deixa passar (desbloqueia) o primeiro processo da fila de processos que estão bloqueados por terem executado um lock (enquanto a fechadura estava trancada). Se a fila está vazia, a fechadura é destrancada (isto é, é deixada aberta).

Solução: Locks (i) Definição: Lock L = valor binário L = 0  lock aberto; o processo prossegue L = 1  lock fechado; o processo espera Espera ocupada o processo esperando em um lock fica em loop, usando inutilmente o processador. Isso pode degradar o desempenho do sistema Tentativa de Implementação Lock (L) ::= while L=1 do nothing; L:= 1; UnLock (L) ::= L := 0;

Solução: Locks Encapsulamento Lock/Unlock garante a Exclusão Mútua Permite acesso seguro a variáveis compartilhadas Thread_T; begin . . . Lock (L); - - seção crítica UnLock (L); end;

Implementação de Locks Hardware: Inibição de Interrupção desligar_interrupções zona crítica ligar_interrupções Lock ::= < desabilita interrupção > Unlock ::= < habilita interrupção > A perda da capacidade de entremear a execução de programas pode afetar o desempenho A capacidade de resposta rápida a eventos (associados a interrupções) é também afetada Em multiprocessadores, mais que um processo pode estar executando ao mesmo tempo: bloquear interrupções não garante a exclusão mútua

Locks: Falha de TSL TSL = Test and Set Lock Mecanismo implementado a nível de hardware É atômico A instrução TSL pode falhar se o acesso ao barramento não for bloqueado

Sleep / Wakeup

Funcionamento Quando um processo P executa o comando sleep, ele se bloqueia até que um outro processo execute o comando wakeup(P). Este último comando acorda (desbloqueia) o processo especificado por P. Se wakeup(P) é executado antes, o processo P não se bloqueia ao executar o sleep. Não formam uma estrutura sintática (isto é, não precisam estar casados, como se fossem um abre e fecha parênteses), eles são comandos independentes

Semáforo Dijkstra 1965

Semáforos Em 1965 Dijkstra propôs usar uma variável inteira para contar o número de sinais de acordar e salvá-los para uso futuro. Esta variável recebeu o nome de semáforo e é usada para sincronizar processos. Seu objetivo é coordenar o acesso a uma região crítica e evitar os problemas que levam a condições de corrida. O Semáforo guarda a quantidade de wakeups feito!!! valor 0 (indicando que nenhum sinal de acordar foi salvo) ou outro valor positivo caso 1 ou mais sinais de acordar estejam pendentes.

Semáforos Um semáforo S tem associado a ele:      -  Um valor inteiro      -  Uma fila de processos bloqueados      -  Duas operações: P ou Wait & V ou Signal Em holandes P = Probeer ('Try') V = Verhoog ('Increment', 'Increase by one').

Semáforos Para ser indivisível as operações P e V são implementadas como chamadas de sistema. Com isso, por um pequeno instante as interrupções são desabilitadas, mas não geram nenhum problema. Semáforos Binários: apenas tomam valores 0 e 1. São habitualmente usados para garantir exclusão mútua no acesso a zonas críticas, e designam-se por mutexes.

Mutex Mutual Exclusion

Mutex Mutex é uma versão simplificada dos semáforos que serve para controlar o acesso a RC e que pode estar somente em dois estados distintos: impedido ou desempedido. Portanto, apenas um bit é necessário para armazenar esta informação. Existe 2 procedimentos para usar o esquema de mutex: 1. mutex_lock: se o mutex estiver desempedido (RC livre) o processo ganha acesso a RC. Caso o mutex estiver impedido o processo será bloqueado. 2. mutex_unlock: procedimento chamado pelo processo que deixa a RC para liberar o acesso aos demais processos.

Mutex

Monitor Hoare 74 / Brinch Hansen 73

Monitor: Conceito Mecanismo de sincronização de alto nível proposto por Hoare (1974) e Brinch Hansen (1975); Conjunto de procedimentos e funções de alto nível agrupadas em um módulo Similar a uma classe, na OO Característica mais importante é a implementação automática da exclusão mútua: Somente um processo pode estar ativo dentro um monitor em um determinado instante de tempo. Somente um procedimento sendo executado, até a completude, por vez Programador livre de especificar as restrições

Monitor: Conceito entry: Java variáveis de condição: monitor example; ... declarações locais do monitor … variáveis de condição procedure entry proc_declaration_1; : begin end; procedure entry proc_declaration_2; : // mais procedimentos ... // ... iniciação do monitor end example. entry: assegura exclusão mútua na execução do procedimento Java entry = synchronized variáveis de condição: associadas a filas de espera definidas por expressões lógicas primitivas: wait (condição) signal (condição)

Monitor: Sistema T_1 T_3 M_1 B_Dados M_2 Display T_4 T_2

Mensagens

Troca de mensagens Primitivas de SEND/RECEIVE Novos problemas Enviar para e receber de Recepção bloqueante Novos problemas Perda de mensagens ACK, NACK Recebimento duplicado Controle de seqüência Segurança...

Troca de mensagens Produtor/consumidor Consumidor Produtor enviar N msg vazias while (TRUE) { receive (produtor, &m); extrai_item(); send (produtor, &m); consome_item(); } Produtor while (TRUE) { produz_item(); receive (consumidor, &m); constroi_msg(); send (consumidor, &m); }

Endereçamento indireto: caixa postal Pn Q1 Qn mailbox send ( mailbox , msg ) receive ( mailbox , msg ) dilema em sistemas distribuídos: onde fica a caixa postal ?

Outras Técnicas

RPC (Remote Procede Call) Distributed Shared Memory (DSM) Rendezvous Uma chamada coloca um processo para dormir até que uma segunda chamada rendezvous ocorra Eventos Processos subscrevem / manifestam interesse por eventos RPC (Remote Procede Call) Distributed Shared Memory (DSM) Sincronização por barreira Processos inteiros esperam até que uma “barreira” seja alcançada