A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Objetos Distribuídos Alcides Calsavara PUC-PR

Apresentações semelhantes


Apresentação em tema: "Objetos Distribuídos Alcides Calsavara PUC-PR"— Transcrição da apresentação:

1 Objetos Distribuídos Alcides Calsavara PUC-PR
Mestrado em Informática Aplicada

2 Conteúdo Revisão de sistemas distribuídos
Revisão de orientacão a objetos CORBA IDL Conceitos e elementos do padrão Servicos Facilidades e domínios Comparacão com DCOM e DCE

3 Introdução a Sistemas Distribuídos
3/25/2017 Introdução a Sistemas Distribuídos Módulo 1 [C1,T1.1,T1.2,T1.3,T1.4] (40 p.)

4 Conteúdo Caracterização de SD Exemplos de SD Objetivos de SD
3/25/2017 Conteúdo Caracterização de SD Exemplos de SD Objetivos de SD Conceitos de hardware em SD Conceitos de software em SD Histórico

5 3/25/2017 Definição de SD "Um sistema distribuído é uma coleção de computadores autônomos conectados por uma rede e equipados com um sistema de software distribuído." [C] "Um sistema distribuído é uma coleção de computadores independentes que aparenta ao usuário ser um computador único." [T]

6 3/25/2017 Outra definição de SD "Você sabe que tem um sistema distribuído quando a falha de um computador do qual você nunca ouviu falar faz com que você pare completamente de trabalhar." [Leslie Lamport]

7 3/25/2017 Avanços tecnológicos Invenção de redes de computadores de alta velocidade (anos 70): Rede local (Local Area Network - LAN) Rede global (Wide Area Network - WAN) Desenvolvimento de microprocessadores potentes (anos 80).

8 3/25/2017 Estado da arte É relativamente fácil agrupar um grande número de CPUs, conectando-as por uma rede de alta velocidade. O software para sistemas distribuídos é completamente diferente do software para sistemas centralizados e está apenas começando a se desenvolver.

9 3/25/2017 Exemplos de SD Uma rede de estações de trabalho em uma universidade ou companhia Uma rede de computadores em uma fábrica Um grande banco com muitas agências, cada qual com um computadores e caixas automáticas

10 Exemplos de SD (continuação)
3/25/2017 Exemplos de SD (continuação) Sistema de reserva de passagens aéreas Sistema de controle de estoque, vendas e entregas numa cadeia de lojas Serviços da Internet: Netnews, WWW Sistemas de acesso a recursos de multimídia e de conferência

11 Vantagens de SD sobre SC
3/25/2017 Vantagens de SD sobre SC Melhor relação custo/benefício Capacidade de processamento além dos limites práticos de SC (velocidade da luz, aquecimento) Maior domínio de aplicações Maior confiabilidade e disponibilidade Crescimento gradativo da capacidade de processamento

12 Vantagens de SD sobre PCs independentes
3/25/2017 Vantagens de SD sobre PCs independentes Compartilhamento de dados comuns entre usuários Compartilhamento de recursos de hardware e software Comunicação entre pessoas Flexibilidade na distribuição de tarefas de acordo com as aplicações

13 Desvantagens de SD Falta de software adequado
3/25/2017 Desvantagens de SD Falta de software adequado Falhas e saturação da rede de comunicação podem eliminar as vantagens de SD Segurança pode ser comprometida: fácil acesso a dados e recursos reservados

14 3/25/2017 Hardware em SD

15 3/25/2017 Software básico em SD

16 Sistemas operacionais de rede
3/25/2017 Sistemas operacionais de rede Estações de trabalho conectadas por uma LAN Cada estação tem seu próprio sistema operacional Ferramentas para login remoto e cópia de arquivos entre estações Servidores de arquivos e ferramentas para causar aparência de arquivo local

17 Sistemas distribuídos autênticos
3/25/2017 Sistemas distribuídos autênticos A rede toda tem aparência de ser um único sistema timesharing: virtual uniprocessor, single-system image Mecanismo global para comunicação entre processos Gerenciamento de processos homogêneo Sistema de arquivos homogêneo

18 Sistemas timesharing para multiprocessadores
3/25/2017 Sistemas timesharing para multiprocessadores Fila única de processos prontos para execução: melhor distribuição de carga CPUs especializadas em: executar processos, controlar periféricos, executar sistema operacional (gerenciar a memória global) Sistema de arquivos comporta-se de maneira semelhante a um SC

19 Comparação de SW para SD
3/25/2017 Comparação de SW para SD

20 Características básicas de SD
3/25/2017 Características básicas de SD Compartilhamento de recursos Extensibilidade (openness) Concorrência Escalabilidade (crescimento gradativo suave) Tolerância a falhas Transparência

21 Compartilhamento de recursos
3/25/2017 Compartilhamento de recursos Componentes de hardware: discos, impressoras, ... Componentes de software: arquivos, bancos de dados, ... Modelos básicos: Modelo cliente-servidor Modelo baseado em objetos

22 3/25/2017 Extensibilidade Extensões de hardware: periféricos, memória, interfaces de comunicação, ... Extensões de software: funções de SO, protocolos de comunicação, ... Interfaces chaves são públicas (system calls) Mecanismo uniforme de comunicação entre processos

23 Concorrência Mais de um processo em execução a cada instante:
3/25/2017 Concorrência Mais de um processo em execução a cada instante: Atividades separadas de usuários Independência de recursos Localização de processos servidores em computadores distintos Acesso concorrente a recursos compartilhados requer sincronização

24 3/25/2017 Escalabilidade Quantidade de trabalho envolvido no processamento de qualquer requisição de acesso a um recurso compartilhado independe do tamanho da rede Técnicas: replicação, caching, servidores múltiplos

25 3/25/2017 Tolerância a falhas Falhas de hardware e software (em CPUs e redes): programas param ou produzem resultados errados Abordagens: Redundância de hardware (Ex: banco de dados replicado em diversos servidores) Recuperação por software: manter dados permanentes sempre consistentes

26 3/25/2017 Transparência Esconder do usuário e do programador de aplicações a separação de componenentes em um sistema distribuído, tal que este seja visto como um sistema centralizado Formas de transparência: acesso, localização, concorrência, replicação, falha, migração, desempenho e escala

27 Transparência de acesso
3/25/2017 Transparência de acesso Operações de acesso a objetos de informação são idênticas para objetos locais e remotos Exemplo: Operação de envio de uma mensagem eletrônica especificando o destinatário através de seu endereço Internet

28 Transparência de localização
3/25/2017 Transparência de localização Acesso a um objeto ocorre sem que seja necessário o conhecimento de sua localização Exemplo: Operação de envio de uma mensagem eletrônica especificando o destinatário através de seu endereço Internet

29 Outras formas de transparência
3/25/2017 Outras formas de transparência Concorrência: processos operam concorrentemente usando objetos de informação comuns sem interferência entre eles. Replicação: várias instâncias de um objeto de informação são usadas sem requerer o conhecimento das réplicas pelos usuários e aplicações. Falha: mascaramento de falhas de hardware e software. Migração: movimento de objetos de informação dentro do sistema não afeta a operação de usuários e aplicações. Desempenho: reconfiguração do sistema para melhorar desempenho conforme a carga varia. Escala: o sistema e as aplicações podem expandir em escala sem requerer modificações na estrutura do sistema ou nos algoritmos das aplicações.

30 Metas de Projeto Módulo 2 [C2,T1.5] (35 p.)

31 Propriedades críticas de um SD
Transparência Flexibilidade Confiabilidade Desempenho Escalabilidade

32 Transparência a paralelismo
Paralelismo: divisão de uma tarefa em sub-tarefas coordenadas e que são executadas simultaneamente em processadores distintos Compilador, ambiente de execução e sistema operacional devem saber tirar vantagem do potencial paralelismo de um sistema distribuído sem mesmo que o programador saiba disso

33 Flexibilidade Modelos de estrutura de SD:
Núcleo monolítico: inclui gerenciamento de arquivos, diretórios e processos Micro-núcleo: mecanismo para comunicação entre processos gerenciamento básico de memória gerenciamento de processos a baixo nível operações de entrada/saído a baixo nível

34 Vantagens do micro-núcleo
Modularidade => Flexibilidade serviços estão disponíveis a todos os clientes, independentemente de localização serviços podem ser reparados sem causar parada total do sistema os próprios usuários podem adicionar novos serviços

35 Confiabilidade Em teoria, como medir? Aspectos:
disponibilidade: fração do tempo em que o sistema pode ser usado exatidão: replicação versus consistência segurança: Como um servidor pode verificar a origem de uma mensagem? tolerância a falhas: replicação versus desempenho

36 Desempenho Métodos de medição: Fator crítico em SD: troca de mensagens
tempo de resposta número de tarefas por hora taxa de utilização do sistema taxa de utilização da rede Fator crítico em SD: troca de mensagens Granularidade de computação paralela

37 Escalabilidade Evitar:
componentes centralizados (ex: um único servidor de correio eletrônico para todos os usuários) tabelas centralizadas (ex: uma única lista telefônica on-line) algoritmos centralizados (ex: roteamento baseado em informação completa)

38 Algoritmos Distribuídos
Nenhuma máquina conhece o estado global Decisões são baseadas somente em informação local A parada de uma máquina não arruína o algoritmo Não há qualquer suposição quanto a existência de tempo (relógio) global

39 Elementos básicos de um SD
Sistema de nomes Comunicação Estrutura de software Alocação de carga de trabalho Manutenção de consistência

40 Sistema de nomes Nomes permitem que recursos sejam compartilhados
Nomes de recursos devem ser independendentes de sua localização O esquema de nomes deve escalar bem Um sistema de interpretação de nomes deve ser acessível por programa

41 Comunicação O sucesso de um SD depende muito do desempenho/confiabilidade das técnicas de comunicação usadas em sua implementação Dilema: otimizar implementação da comunicação e prover alto nível do modelo de programação dessa comunicação

42 Estrutura de software Extensibilidade requer componenetes de software com interfaces bem definidas Um serviço é um gerenciador de objetos de um certo tipo e sua interface é um conjunto de operações Novos serviços devem interoperar com serviços existentes e não duplicar suas funções

43 Alocação de carga de trabalho
Otimização do uso de: capacidade de processamento capacidade de comunicação recursos da rede em geral Objetivo: bom desempenho

44 Manutenção de consistência
Consistência de atualização: atomicidade como meio de atualização instantânea de muitos elementos Consistência de replicação: cópias de um mesmo recurso devem ser “idênticas” Consistência de cache: modificações em um cliente devem ser propagadas ao gerenciador e aos demais clientes

45 Manutenção de consistência (continuação)
Consistência de falha: deve-se evitar falhas múltiplas (em cascata); isolamento de falhas Consistência de relógio: relógios físicos (sincronização aproximada) e relógios lógicos (timestampings em mensagens) Consistência de interface de usuário: atrasos devido a comunicação podem causar visão inconsistente de aplicações gráficas

46 Requisitos a nível de usuário
Funcionalidade: Que serviços esperar de um SD? Como migrar aplicações de um SC para um SD (adaptar SO, adaptar applicação, emulação de SO antigo)? Reconfigurabilidade: substituição de máquinas que falham, rearranjo de carga, transferência de atividades e dados para minimizar comunicação

47 Requisitos a nível de usuário (continuação)
Qualidade de serviço: desempenho confiabilidade e disponibilidade segurança

48 Comunicação em Sistemas Distribuídos
3/25/2017 Comunicação em Sistemas Distribuídos Módulo 3 [C4,C5,T2.3,T2.4,T2.5](120 p.)

49 Conteúdo Elementos básicos de comunicação Comunicação cliente-servidor
3/25/2017 Conteúdo Elementos básicos de comunicação Transmissão de dados Endereçamento Sincronismo Enfileiramento (Bufferização) Confiabilidade Comunicação cliente-servidor Comunicação em grupo Chamada remota de procedimento

50 3/25/2017 Transmissão de dados Dados em programas são estruturados enquanto que mensagens carregam informação sequencial: » Linearização/Restauração de dados Heterogeneidade na representação de dados em computadores: » Uso de um formato externo comum » Inclusão de uma identificação de arquitetura na mensagem

51 Marshalling/Unmarshalling
3/25/2017 Marshalling/Unmarshalling Marshalling: Linearização de uma coleção de itens de dados estruturados Tradução dos dados em formato externo Unmarshalling: Tradução do formato externo para o local Restauração dos itens de dados de acordo com sua estrutura

52 Endereçamento Esquemas:
3/25/2017 Endereçamento Esquemas: Endereçamento máquina.processo Endereçamento máquina.id-local Descoberta de endereço via broadcasting (difusão) Descoberta de endereço via um servidor de nomes Problemas: transparência de localização, sobrecarga, escalabilidade

53 3/25/2017 Comunicação síncrona Primitiva send é bloqueante: processo cliente aguarda enquanto o núcleo envia a mensagem para o processo servidor. Primitiva receive é bloqueante: processo servidor aguarda até que o núcleo receba uma mensagem endereçada a aquele processo.

54 Comunicação assíncrona
3/25/2017 Comunicação assíncrona Primitiva send não é bloqueante: o processo cliente aguarda somente enquanto a mensagem é copiada para o buffer do núcleo. Primitiva receive pode ser: bloqueante: o processo servidor aguarda por uma mensagem. não bloqueante: o processo servidor simplesmente comunica o núcleo que espera receber uma mensagem.

55 Enfileiramento Situações: Send ocorre antes de Receive
3/25/2017 Enfileiramento Situações: Send ocorre antes de Receive Um cliente faz um Send enquanto o servidor ainda atende a outro cliente Solução trivial: clientes devem insistir ... Solução pragmática: mailbox (uma fila de mensagens controlada pelo núcleo): mailbox criado a pedido do servidor mensagens endereçadas ao mailbox

56 Confiabilidade Mensagens se perdem, atrasam, duplicam. Abordagens:
3/25/2017 Confiabilidade Mensagens se perdem, atrasam, duplicam. Abordagens: Send tem semântica não confiável: as aplicações devem garantir entrega de mensagens (ex: timeout) Mensagem de acknowledgement enviada pelo servidor (a nível de núcleo) Mensagem de acknowledgement implícita na resposta do servidor

57 Comunicação cliente-servidor
3/25/2017 Comunicação cliente-servidor

58 Pacotes em protocolo C-S
3/25/2017 Pacotes em protocolo C-S

59 3/25/2017 Comunicação em grupo Tolerância a falhas baseada na replicação de serviços Localização de objetos em serviços distribuídos Melhor desempenho via replicação de dados Múltipla atualização

60 Tipos de grupos Visibilidade: Organização:
3/25/2017 Tipos de grupos Visibilidade: Aberto: um processo fora do grupo consegue enviar mensagens para o grupo todo Fechado: somente processos do grupo enviam mensagens para o grupo todo Organização: Peer: todos os processos tomam decisão Hierárquico: decisão é centralizada

61 Endereçamento de grupo
3/25/2017 Endereçamento de grupo Multicast: um processo envia uma mensagem simultânea e somente para os membros do grupo. Broadcast: um processo envia uma mensagem para todas as máquinas e somente as que contêm um membro do grupo a assimila. Unicast: um processo envia uma mensagem para todos os membros do grupo em série.

62 Modificações no grupo Controle centralizado: servidor de grupo
3/25/2017 Modificações no grupo Controle centralizado: servidor de grupo Controle descentralizado: acordo entre os membros Operações: Entrada de um membro: atualizar estado Saída de um membro: se involuntária (ex: parada), todos os membros restantes devem notar sua saída.

63 Primitivas de comunicação
3/25/2017 Primitivas de comunicação GroupSend: envia mensagem para todos os membros do grupo GroupReceive: aguarda mensagem enviada a todo o grupo GetReply: aguarda resposta de todos os membros do grupo após um GroupSend

64 3/25/2017 Atomicidade Uma mensagem enviada ao grupo deve ser recebida por todos os seus membros ou por nenhum deles. Situação: o enviador pode parar enquanto está enviando a mensagem para o grupo. Garantia de consistência do grupo Facilidade de programação

65 Ordenação de mensagens
3/25/2017 Ordenação de mensagens Todas as mensagens enviadas a um grupo devem chegar a todos os processos na mesma ordem. Abordagens: Ordenação por tempo global Ordenação por tempo consistente: somente uma mensagem por vez é difundida

66 Chamada de Procedimentos Remotos (RPC)
Comunicação no modelo cliente-servidor é baseada em operações de entrada/saída: abstração fraca, sujeito a erros Ideal: programar um SD como se fosse um SC RPC objetiva permitir chamada de procedimento remoto como se fosse local, ocultando entrada/saída de mensagens

67 Visão geral Um processo A chama um procedimento p de um processo B, entrando em estado de espera O processo B passa a executar o procedimento p, e ao seu término faz um reply para o processo A O processo A volta à sua execução normal após ter recebido o reply

68 Chamadas de procedimento
O procedimento chamador, que já tem suas variáveis locais empilhadas, empilha os parâmetros da chamada e o endereço de retorno O procedimento chamado aloca sua variáveis locais No retorno do procedimento chamado, os parâmetros e o endereço de retorno são desempilhados

69 Modos de parâmetros Valor: procedimento chamado recebe uma cópia de uma variável conhecida do procedimento chamador Referência: procedimento chamado recebe o endereço de uma variável conhecida do procedimento chamador Cópia/Reescrita: procedimento chamador recebe uma cópia de uma variável conhecida do procedimento chamador e o valor desta cópia é reescrito na variável

70 Funções dos Stubs Client stub intercepta a chamada
empacota os parâmetros (marshalling) envia mensagem de request ao servidor (através do núcleo) Server stub recebe a mensagem de request (através do núcleo) desempacota os parâmetros (unmarshalling) chama o procedimento, passando os parâmetros empacota o resultado envia mensagem de reply ao cliente (através do núcleo) recebe a mensagem de reply (através do núcleo) desempacota o resultado passa o resultado para o cliente

71 Falhas em RPC O cliente não é capaz de localizar o servidor
A mensagem de request do cliente para o servidor é perdida A mensagem de reply do servidor para o cliente é perdida O servidor pára após ter recebido a mensagem de request O cliente pára após ter enviado a mensagem de request

72 Falha do servidor Passos normais: recebe mensagem de request
executa procedimento envia mensagem de reply Falha pode ocorrer: após a execução antes da execução Semânticas de chamada: pelo menos um no máximo um exatamente um

73 Falha do cliente O servidor torna-se um “órfão” Soluções:
exterminação do servidor pela máquina do cliente reencarnação do cliente: toda computação remota é destruída reencarnação suave do cliente: somentes as computações remotas referentes aquele cliente são destruídas expiração: servidor estabele um timeout para confirmação

74 Sincronização em Sistemas Distribuídos
3/25/2017 Sincronização em Sistemas Distribuídos Módulo 4 [C10,C13,T3]

75 Conteúdo Relógios lógicos Relógicos físicos Exclusão mútua
3/25/2017 Conteúdo Relógios lógicos Relógicos físicos Exclusão mútua Algoritmos de eleição

76 3/25/2017 Eventos e relógios A ordem de eventos que ocorrem em processos distintos pode ser crítica em uma aplicação distribuída (ex: make, protocolo de consistência de réplicas). Em um sistema com n computadores, cada um dos n cristais terá uma frequência própria, fazendo com que os n relógios percam seu sincronismo gradualmente.

77 Relógios lógicos Princípios: » Ordenação parcial de eventos
3/25/2017 Relógios lógicos Princípios: 1. Somente processos que interagem precisam sincronizar seus relógios. 2. Não é necessário que todos os processos observem um único tempo absoluto; eles somente precisam concordar com relação à ordem em que os eventos ocorrem. » Ordenação parcial de eventos » Ordenação causal potencial

78 Relógios lógicos (cont.)
3/25/2017 Relógios lógicos (cont.) Relação acontece-antes ( -» ): 1. Sejam x e y eventos num mesmo processo tal que x ocorre antes de y. Então x -» y é verdadeiro. 2. Seja x o evento de uma mensagem ser enviada por um processo, e y o evento dessa mensagem ser recebida por outro processo. Então x -» y é verdadeiro. 3. Sejam x, y e z eventos tal que x -» y e y -» z. Então x -» z é verdadeiro.

79 Relógios lógicos (cont.)
3/25/2017 Relógios lógicos (cont.)

80 Relógios lógicos (cont.)
3/25/2017 Relógios lógicos (cont.) Implementação: Cada processo p mantém seu próprio relógio lógico (um contador, por software), Cp, usado para fazer timestamp de eventos. Cp(x) denota o timestamp do evento x no processo p, e C(x) denota o timestamp do evento x em qualquer processo. LC1: Cp é incrementado antes de cada evento em p. LC2: (a) Quando um processo p envia uma mensagem m, ele concatena a informação t=Cp a m, enviando (m,t). (b) Quando um processo q recebe a mensagem (m,t), ele computa Cq := max(Cq, t) e aplica LC1 antes de fazer timestamp do evento de recebimento da mensagem.

81 Relógios lógicos (cont.)
3/25/2017 Relógios lógicos (cont.) Ordenação total de eventos: dois eventos nunca ocorrem exatamente no mesmo instante de tempo. 1. Se x ocorre antes de y no mesmo processo, então C(x) é menor que C(y). 2. Se x e y correspondem ao envio e ao recebimento de uma mensagem, então C(x) é menor que C(y). 3. Para todos os eventos x e y, C(x) é diferente de C(y). Implementação: concatenar o número do processo ao timestamp.

82 Relógios físicos GMT: Greenwich Mean Time
BIH: Bureau Internacional de l’Heure TAI: International Atomic Time UTC: Universal Coordinated Time NIST: National Institute of Standard Time WWV: estação de rádio de ondas curtas GEOS: Geostationary Environment Operational Satellite

83 Relógios físicos (cont.)
Algoritmo de Cristian: A rede dispõe de um time server (receptor WWV) Uma máquina cliente envia uma mensagem pedindo a hora certa ao time server Ao receber a mensagem resposta do time server, o cliente adiciona o tempo médio de envio de mensagens à hora recebida. Esse tempo médio é calculado pelo próprio cliente considerando as horas de envio e recebimento das mensagens e ainda o tempo gasto pelo time server para processar o pedido.

84 Relógios físicos (cont.)
Algoritmo de Berkeley: A rede não dispõe de uma máquina com um receptor WWV A rede dispõe de um time server que faz polling nas outras máquinas a fim de obter a hora marcada por cada uma, fazer uma média entre essas horas e divulgar essa média para todas as máquinas. NTC: Network Time Protocol Sub-rede hierárquica de sincronização Servidores primários (WWV) e secundários

85 Exclusão mútua Controle de acesso a regiões críticas
Algoritmo centralizado: Um processo é eleito o coordenador Os processos concorrentes devem requisitar permissão de acesso ao coordenador Um processo que termina de fazer acesso a uma região crítica deve comunicar a liberação da região ao coordenador Processos que tentam entrar em uma região crítica ocupada devem aguardar em uma fila controlada pelo coordenador

86 Exclusão mútua (cont.) Algoritmo distribuído:
Baseado em ordenação total de eventos e comunicação confiável em grupo (multicast ou broadcast). Um processo que deseja entrar em uma região crítica constrói uma mensagem com o nome da região, o número do processo e a hora, e a envia a todos os demais processos concorrentes. Um processo que recebe a mensagem: Caso não esteja na região crítica e não intencione entrar nela, retorna OK. Caso já esteja na região crítica, não responde e enfileira a requisição. Caso também intencione entrar na região crítica, determina o processo que tentou primeiro (comparando timestamps) e responde OK ou enfileira a requisição, apropriadamente.

87 Exclusão mútua (cont.) Algoritmo de Token Ring:
Os processos são conectados por um anel e numerados sequencialmente a partir de 0. Na iniciação do anel, uma token é dada ao processo 0. A token é passada do processo k para o processo k+1. Ao receber a token, um processo pode retê-la ou passá-la imediatamente para o próximo processo, dependendo se deseja ou não, respectivamente, entrar na região crítica. Enquanto o processo estiver na região crítica, a token fica retida, e somente ao sair da região crítica é repassada adiante.

88 Algoritmos de eleição Eleição de um processo coordenador em algoritmos distribuídos Algoritmo Bully: 1. Um processo P envia uma mensagem ELECTION para todos os processos de maior número. 2. Se nenhum processo responde, P vence a eleição e se torna o coordenador. 3. Se um dos processos responde este inicia sua participação na eleição a partir do passo 1. O trabalho de P está feito.

89 Algoritmos de eleição (cont.)
Algoritmo de Anel: Um processo constrói uma mensagem ELECTION contendo seu número e envia ao seu sucessor. Se o sucessor estiver parado, a mensagem é enviado ao sucessor do sucessor. O processo que recebe a mensagem insere seu próprio número na mensagem e passa para o seu sucessor. Quando a mensagem retorna ao processo que originou a eleição, este descobre quem é novo coordenador (o processo com número maior) e, em seguida, envia uma mensagem COORDINATOR comunicando o fato.

90 Tolerância a falhas Módulo 5 [C11,C15,T4.5] (65 p.)

91 Conteúdo Falhas Uso de redundância Consenso na presença de falhas
tipos tempo médio até falhar em processadores Uso de redundância replicação ativa replicação primary backup Consenso na presença de falhas

92 Falhas Um sistema falha quando não funciona de acordo com sua especificação. Falhas típicas: hardware: processador, memória, dispositivo de E/S, cabo, ... software: erros de programação, erros de operação, situações não previstas, ... Objetivo de tolerância a falhas: garantir que um sistema continue a funcionar corretamente na presença de defeitos. Tolerância a falhas é necessária principalmente em aplicações que requerem alta disponibilidade.

93 Tipos de falhas Falha transiente: ocorre apenas uma vez; se a operação é repetida, a falha desaparece. Exemplo: falha numa transmissão usando micro-ondas porque algum objeto obstrui temporariamente. Falha intermitente: ocorre de maneira aleatória e imprevisível. Exemplo: um conector com mau contato. Falha permanente: ocorre sempre até que o componente seja substituído. Exemplo: um chip queimado, erros em software.

94 Tempo médio até falhar Exemplo:
Um componente tem uma probabilidade p de falhar em um segundo. A probabilidade desse componente não falhar em k segundos consecutivos é O tempo estimado até esse componente falhe (mean time to failure) é Assim, se p = então MTF = 1000 segundos.

95 Falhas em processadores
Tipos: Fail-silent fault (ou Fail-stop fault): um processador com falha pára e não responde a subsequentes requisições ou produz qualquer resultado. Byzantine fault: um processador com falha continua a operar, emitindo resultados errados, possivelmente em acordo com outros processadores com falha, causando a impressão de que estão todos funcionando normalmente.

96 Uso de redundância Tipos de redundância:
Redundância de informação: bits extras são adicionados para se recuperar de bits errados. Redundância de tempo: uma ação é executada e, se necessário, é executada novamente. (Útil para falhas transientes e intermitentes.) Redundância física: equipamento extra é adicionado para que o sistema como um todo tolere a falha de um ou outro componente. Exemplo: múltiplos processadores.

97 Uso de replicação ativa
Todos os processadores são usados o tempo todo como servidores (em paralelo) a fim de ocultar falhas completamente. TMR: Triple Modular Redundancy Sistema tolerante a falhas no nível k: satisfaz sua especificação mesmo se até k componenetes falharem simultaneamente: fail-silent fault: requer k+1 componenetes byzantine fault: requer 2k+1 componentes Requisito: todas as requisições chegam nos servidores numa mesma ordem (atomic broadcast problem).

98 Uso de primary backup Apenas um processador (primary) é o servidor a cada instante. Se este falhar, um outro processador (backup) é ativado para operar em seu lugar. A substituição de um processador por outro não deve ser notada pelas aplicações; somente o sistema operacional do cliente deve notar. Vantagens: Mais simples: mensagens do cliente vão para apenas um servidor (não é necessário ordenar mensagens). Na prática, requer menos máquinas. Desvantagem: não funciona se para Byzantine faults.

99 Consenso na presença de falhas
Exemplos: eleição de um coordenador, decisão quanto a fazer ou não commit de uma transação, divisão de tarefas. Primeiro caso: processadores confiáveis, mas possíveis falhas de comunicação. Exemplo: two-army problem. Consenso é impossível sem comunicação confiável! Segundo caso: comunicação confiável, mas possíveis falhas de processadores. Exemplo: Byzantine generals problem. Consenso é possível quando há m processadores confiáveis somente se houver 2m+1 processadores confiáveis.

100 Transações Atômicas Distribuídas
Módulo 6 [C12,C13,C14,T3.4] (110 p.)

101 Conteúdo Armazenamento em memória estável Primitivas de transação
Propriedades de transações Transações encaixadas Implementação de transações Espaço de trabalho privado Log Protocolo de commit em duas fases Controle de concorrência Locking Controle otimista Timestamps

102 Transações em SD Abstração em alto nível para ocultar:
uso de semáforos para controle de concorrência prevenção de deadlocks recuperação de falhas Vantagem: programadores concentram-se nos algoritmos das aplicações. Sinônimos: atomic transaction, transaction, atomic action.

103 Exemplo de transação Um cliente, em um PC ligado por modem, faz transferência de fundos de uma conta bancária para outra, em dois passos: (1) Saque(quantia, conta1) (2) Deposite(quantia, conta2) Se a ligação telefônica cair entre os passos (1) e (2) o dinheiro desaparece! Solução: passos (1) e (2) devem ocorrer como uma transação atômica (como se fosse um único passo); se a ligação telefônia cair entre os passos (1) e (2), os efeitos do passo (1) devem ser cancelados.

104 Memória estável Informação armazenada em RAM é perdida se faltar energia ou se a máquina falhar. Informação armazenada em disco é perdida se a cabeça do disco falhar. Informação armazenada em memória estável sobrevive a tudo, exceto enchentes, terremotos, ... Implementação típica: disco replicado.

105 Primitivas de transação
BEGIN_TRANSACTION: marca o início da transação END_TRANSACTION: termina a transação e tenta fazer o commit ABORT_TRANSACTION: destrói a transação; restaura os valores anteriores (do início da transação) READ: lê dados de um objeto (por exemplo, um arquivo) WRITE: escreve dados em um objeto

106 Exemplos de primitivas
BEGIN_TRANSACTION reserve São Paulo - Salvador reserve Salvador - Brasília reserve Brasília - São Paulo END_TRANSACTION reserve Brasília - São Paulo => ABORT_TRANSACTION

107 Propriedades de transações:ACID
Atômica: para o mundo externo, a transação ocorre de forma indivisível. Consistente: a transação não viola invariantes de sistema. Isolada: transações concorrentes não interferem entre si (serializable). Durável: os efeitos de uma transação terminada com commit são permanentes.

108 Isolamento ou serializabilidade
BEGIN_TRANSACTION x = 0; x = x + 1; END_TRANSACTION BEGIN_TRANSACTION x = 0; x = x + 2; END_TRANSACTION BEGIN_TRANSACTION x = 0; x = x + 3; END_TRANSACTION

109 Escalonamentos (schedules)
Escalon. 1 Escalon. 2 Escalon. 3 x = 0; x = 0; x = 0; x = x + 1; x = 0; x = 0; x = 0; x = x + 1; x = x + 1; x = x + 2; x = x + 2; x = 0; x = 0; x = 0; x = x + 2; x = x + 3; x = x + 3; x = x + 3; Legal Legal Ilegal

110 Transações encaixadas
A transação top-level cria sub-transações que executam em paralelo, em processadores distintos: melhor desempenho e programação mais simples. Se uma transação top-level abortar, então todas as suas sub-transações também devem abortar. Uma sub-transação herda todos os objetos controlados pela transação top-level. Uma sub-transação faz cópia local de todos os objetos herdados e só repassa os novos valores destes objetos à transação top-level em caso de commit da sub-transação.

111 Implementação de transações
Métodos de controle sobre modificações: Espaço de trabalho privado Log Protocolo de commit em duas fases

112 Espaço de trabalho privado
Um processo que começa uma transação cria um espaço contendo cópias de todos os objetos manipulados pela transação. Se ocorrer commit, a transação repassa os novos valores dos objetos para os seus originais. Problema: alto custo! Otimização: shadow blocks

113 Log Writeahead log ou intentions list
Os objetos originais são modificados durante a transação Antes de cada modificação, um registro é escrito em um arquivo de log (em memória estável) Cada registro de log informa o valor anterior e o valor novo de um objeto, além de informar que transação fez a modificação no objeto Se ocorrer commit um registro apropriado é inserido no log Se ocorrer abort todas as operações efetuadas pela transação são desfeitas com base no log, começando pelo último registro (rollback)

114 Log : exemplo x = 0; y = 0; BEGIN_TRANSACION x = x + 1; y = y + 2;
END_TRANSACION Log x = 0/1 y = 0/2 x = 1/4

115 Protocolo de commit em duas fases
A ação de commit deve ser “instantânea” e indivisível Pode ser necessária a cooperação de muitos processos, em máquinas distintas, cada qual com um conjunto de objetos envolvidos na transação Um processo é designado como o coordenador (normalmente o próprio cliente que inicia a transação) Os demais processos são designados como subordinados Toda ação é registrada em log, armazenado em memória estável, para o caso de falha durante a transação.

116 O protocolo Fase 1: O coordenador registra “prepare” em log e envia a mensagem “prepare” para os subordinados Um subordinado registra “ready” / “abort” em log e envia a mensagem “ready” / “abort” para o coordenador O coordenador coleta todos as mensagens “ready” Fase 2: O coordenador registra a decisão em log e envia mensagem “commit” / “abort” para os subordinados Um subordinado registra “commit” / “abort” em log, toma a ação correspondente e envia mensagem “finished” ao coordenador

117 Controle de concorrência
Locking Um gerente centralizado ou distribuído registra todos os locks e rejeita pedidos de lock em objetos já alocados a outros processos lock para escrita deve ser exclusivo, mas lock para leitura pode ser compartilhado Quanto menor a granularidade do lock maior a chance de paralelismo, mas também maior é a chance de deadlock Lock em duas fases: growing: todos os locks são adquiridos shrinking: todos os locks são liberados Strict two-phase locking: a fase shrinking ocorre “instantaneamente” (previne cascade aborts)

118 Controle de concorrência (cont.)
Controle otimista Os objetos são modificados sem preocupação com concorrência até o fim da transação Quando chegar o momento de commit, a transação verifica se outra transação modificou os mesmos objetos que ela tenha modificado Se não há conflito, então o commit é feito (repasse de objetos do espaço de trabalho privado), senão é feito um abort

119 Controle de concorrência (cont.)
Timestamps Cada transação recebe um timestamp único em seu início Cada objeto no sistema tem um read timestamp e um write timestamp, dizendo que transação fez a operação Se transações são “curtas” e “espaçadas” no tempo, normalmente, quando uma transação fizer acesso a um objeto, os timestamps do objeto serão mais velhos que o timestamp da transação. Caso contrário a transação está “atrasada” e deve ser abortada.

120 Sistemas de Nomes Módulo 7 [C9] (30 p.)

121 Conteúdo Nomes em SD e seus tipos Binding Atributos de objetos
Serviço de nomes Nomes hierárquicos Conceitos para implementação de um serviço de nomes Um exemplo teórico de serviço de nomes Resolução de nomes Servidores e navegação Estudo de caso: DNS

122 Nomes em sistemas distribuídos
Nomes designam recursos: computadores serviços portas objetos de informação (ex: página WWW) usuários Nomes são necessários para: comunicar e compartilhar recursos requisitar um sistema agir sobre um recurso permitir comunicação entre usuários

123 Tipos de nomes Tipos básicos de nomes:
nomes textuais: usados por humanos para reconhecer e memorizar nomes de recursos; nome legíveis identificadores de sistema: usados devido a eficiência no seu armazenamento e resolução por software; nomes não necessariamente legíveis Escopos de nomes: específico de um serviço: nome de um arquivo, número de um processo independente de serviços: nomes de usuários, endereço , nomes de computadores, nomes de serviços

124 Exemplo: Sistema Amoeba
Nome textual do arquivo /users/smith/prog.c Id Recurso (Id Porta, Id Espec. Serviço) arquivo 2:60:8c:2:b0:5a Endereço de rede Servidor

125 Tipos de atributos de objetos
Valores primitivos, como números inteiros, strings, ... Nomes, os quais também devem ser resolvidos (ex: um endereço Internet) A resolução de um nome termina com um valor primitivo ou com um nome primitivo (nome que não pode mais ser traduzido, como por exemplo, um endereço Internet)

126 Serviço de nomes Armazena um banco de dados de bindings entre um conjunto de nomes textuais e atributos de objetos que existem independentemente de serviços Operações básicas de um serviço de nomes: resolve: recupera os atributos de um objeto a partir de um dado nome bind: cria um binding entre um nome e um conjunto de atributos delete: destrói um binding list: mostra os bindings existentes

127 Serviço de nomes: motivação
Unificação: permite que recursos gerenciados por servidores (ou serviços) distintos apareçam sob um mesmo esquema de nomes. Ex: arquivos locais e remotos em Unix com NFS aparecem sob a mesma hierarquia de nomes. Integração: permite o compartilhamento de recursos criados em espaços administrativos distintos. Ex: integração de dois conjuntos de usuários.

128 Serviço de nomes: requisitos
Gerenciar um número arbitrário de nomes e servir a um número arbitrário de organizações. Ex: gerenciar todos os cndereços eletrônicos do mundo. Tempo de vida longo: resistir a mudanças nas organizações de nomes e nos componentes que implementam o serviço. Alta disponibilidade Isolamento de falhas Tolerância a enganos (mistrust): não pode haver um único componente considerado como “confiável” por todos os clientes do sistema.

129 Nome hierárquico componentes .cs.distrib.gene Prefixo Prefixo

130 Nomes: conceitos Espaço de nomes: conjunto de nomes válidos segundo alguma convenção. Em um nome hierárquico, cada componente em um prefixo define um diretório => escalabilidade Um espaço de nomes flat, isto é, sem organização hierárquica de diretórios, depende de um gerenciamento central => não escala Um alias é um sinônimo para um nome hierárquico, definido com o objetivo de facilitar a memorização do nome. Ex: Um alias para .cs.distrib.gene podia ser .gene; um alias para .cs.distrib.gene.parallel podia ser .gene.parallel

131 Nomes: conceitos (cont.)
Nome puro: não incorpora qualquer informação sobre configuração física, como a localização do objeto Nomes fisicamente particionados: têm o formato Vantagem: não é necessário descobrir o servidor para então descobrir o objeto. Desvantagem: qualquer alteração de servidor invalida nomes em cache, replicados Nomes organizacionalmente particionados: refletem estrutura administrativa, como departamentos, divisões, ... Ex: .pucpr.ccet.di, .pucpr.ccet.ee, .pucpr.ccbs.med. Vantagem: administração decentralizada. Desvantagens: (1) sujeito a mudanças; (2) requer proteção contra “enganos”.

132 Nomes: conceitos (cont.)
Domínio de nomes: um espaço de nomes para o qual existe apenas uma autoridade administrativa para a atribuição de nomes dentro dele. Dominíos podem ser encaixados: sub-domínios A autoridade responsável por um domínio delega responsabilidades às autoridades de seus sub-domínios, tal que a autoridade responsável por cada sub-domínio tem autonomia para atribuição de nomes dentro do sub-domínio.

133 Armazenamento de atributos: um exemplo
Tipo Atributos User login name, computador, telefone, ... Service address, version Computer architecture, operating system, network addres, owner Group name1, name2, ... Alias name Directory nameComponent1, nameComponent2, ...

134 Operações de um serviço de nomes: um exemplo
Bind (accessId: Permissions, name: Text, attr: Attributes) -> {Success, NotAllowed, AlreadyBound, NoDirectory} Lookup (name: Text, type: Int, attr: Attributes) -> {Success, NotFound} Unbind (accessId: Permissions, name: Text) -> {Success, NotFound, NotAllowed, DirectoryNotEmpty}

135 Resolução de nomes Resolução de um nome: encontrar a entrada de um nome a fim de obter os atributos associados a este nome. Contexto de nomes: uma abstração que mapeia um nome a um conjunto de atributos diretamente, ou que mapeia para outro contexto. Exemplo: diretórios em um nome hierárquico. A resolução de um nome requer um contexto inicial; um processo iterativo percorre os contextos intermediários até se chegar ao contexto onde o nome está mapeado para atributos.

136 Servidores e navegação
Um serviço de nomes pode ser implementado por um conjunto de servidores; normalmente um servidor para cada diretório da hierarquia do espaço de nomes. Vantagens: autonomia, tolerância a falhas, escalabilidade. Navegação: o processo de descobrir informação entre diversos servidores a fim de resolver um nome Implementação típica: uso de user agents e cache cada máquina possui um user agent (UA) o cliente faz lookup de nomes através de seu UA o UA resolve o máximo de prefixos usando seu cache quando o servidor do diretório final é encontrado, o nome é resolvido por aquele servidor

137 Estudo de caso: DNS DNS: Domain Name System
Armazena nomes de qualquer tipo de objeto; na prática, nomes de computadores são mapeados para endereços IP Objetivos: escalabilidade, autonomia das organizações, generalidade (qualquer tipo de objeto) Nomenclatura própria: domain: corresponde a domínio de nomes domain name: corresponde a nome Exemplos de nome: newcastle.ac.uk

138 DNS (cont.) Domínios de topo: Por tipo de organização: Por país:
com : organizações comerciais edu : universidades e instituições de educação gov : agências do governo mil : organizações militares net : grandes centros de suporte a rede org : outras organizações int : organizações internacionais Por país: us : United States uk : United Kingdom fr : France

139 DNS (cont.) Queries: Host name resolution: dado o nome de um computador, obtém-se o seu endereço IP. Este tipo de operação é usado pelo ftp. Exemplo: epsilon.ccet.pucpr Mail host location: software de correio eletrônico usa o DNS para resolver nomes em endereços IP de computadores que aceitam mail. Exemplo: Reverse resolution Host information Well known services

140 DNS (cont.) Servidores de nomes: DNS usa uma rede de servidores
Uso intensivo de replicação e cache Cada servidor armazena parte da base de dados e informação sobre outros servidores Uma zona é uma divisão lógica do espaço de nomes, contendo informação sobre suas sub-zonas Cada servidor armazena dados referentes a uma ou mais zonas


Carregar ppt "Objetos Distribuídos Alcides Calsavara PUC-PR"

Apresentações semelhantes


Anúncios Google