A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Encaminhadores IP Sistemas Telemáticos 2002/2003 LESI

Apresentações semelhantes


Apresentação em tema: "Encaminhadores IP Sistemas Telemáticos 2002/2003 LESI"— Transcrição da apresentação:

1 Encaminhadores IP Sistemas Telemáticos 2002/2003 LESI
Grupo de Comunicações por Computador Departamento de Informática Universidade do Minho O nosso estudo da camada de rede centrou-se nos modelos de serviço de rede, nos algoritmos de encaminhamento que controlam as rotas feitas pelos pacotes e os protocolos que corporizam essas rotas. Esses tópicos contudo (embora as mais importantes) não esgotam o que se passa na camada de rede. Vamos agora considerar a a função de comutação dum router – a transferência de informação das portas de entrada para as portas de saída. Estudar apenas os aspectos de serviço e de controlo é como estudar uma empresa e considerar apenas a sua gestão e as suas relações públicas sem considerar os seus trabalhadores as pessoas que fazem o trabalho. Na camada de rede o trabalho é a expedição de datagramas. Um componente chave do processo de expedição é a transferência de um datagrama da porta de entada para a porta de saída. Nesta aula vamos estudar como isso é feito. A nossa cobertura vai ser bastante breve já que seria necessário um curso inteiro para cobrir este tópico com profundidade.

2 Fontes utilizadas Alguns materiais de Artigo
Scott Karlin and Larry Peterson Zhenhai Duan N. stanford.edu; S. cornell.edu Artigo IP Routers Architecture: An Overview , James Aweya, acessível na net.

3 A Internet é um grafo de encaminhadores !
RouterIP de Núcleo O Núcleo da Internet Router de IP de Periferia

4 Qual o aspecto dos comutadores /encaminhadores?
De acesso e.g. ISDN, ADSL Comutador ATM de Núcleo Encaminhador de Núcleo

5 Componentes dum Encaminhador Genérico
Mostra-se a arquitectura genérica dum encaminhador. Podem ser identificados 4 componentes: Portas de entrada: A porta de entrada executa várias funções. Executa a funcionalidade da camada física nomeadamente os aspectos de terminação física da linha. Executa também as funcionalidades da camada de ligação necessários para inter-operação com a funcionalidade da camada de ligação do router do outro lado da linha. Também executa a tarefa de lookup da rota e a função de expedição de tal forma que o pacote expedido para a fábrica de comutação seja enviado para a porta de saída adequada. Os pacotes de controlo (RIP, OSPF ou BGP) são directamente encaminhados para o processador de encaminhamento. Na prática existem várias portas por placa. Fábrica de comutação: A switching fabric conecta as portas de entrada do encaminhador com as portas de saída. Está completamente contida dentro do router. É uma autêntica rede dentro do router. Portas de saída: armazenam os pacotes que lhe foram expedidos para elas através da fábrica de comutação, transmitindo-os a seguir para as linhas de saída. Executa as funcionalidades reversas de ligação física e lógica feitas pelas portas de entrada. Processador de encaminhamento: O processador de encaminhamento executa os protocolos de encaminhamento, mantém as tabelas de encaminhamento e executa as funções de gestão de rede

6 Processamento de um pacote num encaminhador IP
Aceitar o pacote de uma ligação de entrada Localizar o endereço de destino do pacote na tabela de expedição, para identificar a(s) porta de saida . Manipular o cabeçalho do pacote: decrementar o TTL e calcular a soma de verificação do cabeçalho. Enviar o pacote para a(s) portas de saída. Colocar o pacote na fila de espera Transmitir o pacote pela linha de saída Pode haver também fragmentação e outros serviços especiais como, tradução de pacotes, priorização de tráfego, encapsulamento de pacotes, autenção e filtragem de pacotes....

7 Interior dum Encaminhador IP melhor esforço

8 Outra visão dum Encaminhador IP
Protocolos de Encaminhamento Tabela de Encaminhamento Plano de Controlo Plano de Dados Processamento por Pacote Tabela de expedição Comutação

9 Componentes Arquitecturais Básicos Plano de dados: processamento por pacote
1. Ingresso 2. Interconexão 3. Egresso Tabela de Expedição Decisão de expedição Tabela de Expedição Decisão de expedição Tabela de Expedição Decisão de expedição

10 Interconexões Duas Técnicas Básicas
Filas de Espera de Entrada Filas de Espera de Saída Normalmente uma switch fabric não bloqueante (e.g. crossbar) Normalmente um barramento rápido

11 Interconexões Filas de Espera de Saída
Filas de Saída Individuais Memória centralizada partilhada LB Memória = 2N.R 1 2 N 1 LB da Memória = (N+1).R 2 N

12 Interconexões Comutação via Memória Partilhada
Inúmeros trabalhos provaram e tornaram possível: Equidade(Fairness) Garantia de atraso Controlo de jitter Garantia de Perdas Garantias estatísticas Entrada 1 Saída 1 Entrada 2 Saída 2 Um buffer simples em memória alocado dinamicamente : N escritas por tempo de célula N leituras por tempo de célula Limitado pela largura de banda da memória Os encaminhadores mais simples eram muitas vezes computadores tradicionais onde a comutação entre entrada e saída é feita sob o controlo directo do CPU. As portas de entrada e saída funcionavam como dispositivos tradicionais de I/O num sistema operativo tradicional. Uma porta de entrada com um pacote recém-chegado assinala o evento com uma interrupção ao CPU. A partir daí o pacote é copiado para a memória. O processador de encaminhamento, aí extrai o endereço de destino do cabeçalho faz o lookup da porta de saída Observe que se a largura de banda da memória é B pac/seg (podem ser escritos ou lidos B pacotes por segundo) a capacidade de comutação (nº de pacotes que podem ser transferidos de portas de entrada para as portas de saída) é menor que B/2 pac/seg. Muitos routers modernos também comutam via memória. A principal diferença é que o lookup do endereço de destino e o armazenamento do pacote na zona de memória adequada é realizada pelos processadores das cartas de entrada. De alguma forma, os routers que comutam via memória parecem-se com os multiprocessadores de memória partilhada com os processadores duma placa a armazenarem pacotes na porta de saída apropriada. Entrada N Saída N

13 Filas de Espera de Saída Quão rápida pode ser a memória partilhada?
SRAM de 5 ns Memória Partilhada 5ns por operação de memória 2 operações de memória por pacote Portanto até um máximo de 160Gb/s Na prática a velocidade de comutação é próxima de 80Gb/s 1 2 N Barramento de 200 byte

14 Interconexões Filas de Espera de Entrada com Crossbar
LB Memória = 2R Dados de Entrada Desempenho e atraso óptimos é obtido usando comutadores com armazenamento (buffers) na saída. Se houver pouca carga pode-se conseguir desempenho de 100%. Como logo após a chegada os pacotes são imediatamente colocados na saída, é mais fácil controlar a latência do pacote. Isto facilita o fornecimento de garantias de QoS. Embora esta arquitectura pareça ser adequada para fornecer garantias de QoS, tem sérias limitações: a velocidade de comutação para a memória de saída deve ser pelo menos igual a capacidade de entrada no comutador. Para conseguir isso o comutador deve operar a uma velocidade pelo menos igual a todas as linhas de entrada ligadas ao comutador. Contudo aumentar a velocidade da linha (S) e aumentar o tamanho do comutador (N) torna extremamente difícil aumentar de forma significativa a velocidade da fábrica de comutação, e também construir memórias com a largura de banda da ordem de O(NS). É difícil construir comutadores com armazenamento de saída da ordem dos múltiplos gigabits ou terabits. O resultado é que maior parte dos comutadores são baseadas em arquitecturas com armazenamento de entrada, Uma das redes de interconexão usadas para isso é a crossbar devido ao seu : baixo custo, boa escalabilidade e propriedades de não bloqueio. O switch crossbar é um exemplo simples de divisão espacial que pode conectar fisicamente qualquer das N entradas com qualquer das N saídas. Uma crossbar com armazenamento de entrada tem que trabalhar à velocidade da linha. Dado o estado actual da tecnologia, esta arquitectura é considerada ser substancialmente mais escalável que os buffers de saída ou comutadores com memória partilhada.Contudo é preciso ultrapassar algumas barreiras tecnológicas para disponibilizar garantias de largura de banda e atraso. configuração Dados de Saída

15 Fila de Espera de Entrada Bloqueio de Topo de Linha (Head of Line Blocking)
58.6% Atarso Uma vez determinada a porta de saída dum pacote através da função de lookup, o pacote pode ser enviado para a fábrica de comutação. Contudo, um pacote pode ser temporariamente ter a entrada na fábrica de comutação bloqueada (devido ao facto dela estar a ser usada por outros pacotes). Um pacote bloqueado tem assim que ser colocado em fila de espera na porta de entrada para mais tarde ser escalonada a sua passagem pela fábrica de comutação. Se a fábrica de comutação não for suficientemente rápida (relativamente à velocidade das linhas de entrada) para transferir os pacotes chegados através da fábrica sem qualquer atraso, tem que haver filas de espera com pacotes nas portas de entrada. Para ilustrar uma importante consequência desta espera, consideremos uma fábrica de comutação crossbar e suponhamos que (1) A velocidade de todas as ligações é idêntica (2) O tempo para transferir um pacote da porta de entrada para a porta de saída é o mesmo que se leva a receber um pacote da porta de entrada (3) Os pacotes são transferidos da entrada para a saída usando uma disciplina FIFO Podem ser transferidos múltiplos pacotes em paralelo se as suas portas de saída forem diferentes. Contudo se dois pacotes na frente de duas filas de entrada se destinarem à mesma porta de saída um deles tem que aguardar uma vez que a switching fabric só pode transferir um de cada vez. Mas não é só ele que tem que aguardar mas sim todos os que estiverem atrás dele na fila, mesmo que não haja necessidade de contenção para eles. Este fenómeno chama-se Head of Line Blocking. Carga 100%

16 Head of Line Blocking

17 Fila de Espera de Entrada Filas de Espera de Saída Virtuais

18 Fila de Espera de Entrada Filas de Espera de Saída Virtuais
Atraso Carga 100%

19 Fila de Espera de Entrada Filas de Espera de Saída Virtuais
LB Memória = 2R Complexo ! Arbiter

20 Engenho de Expedição Router Pacote dados cabeçalho
Estrutura de Dados para localização do encaminhamento Endereço de destino Porta de saída Tabela de Expedição Durante muito tempo o maior estrangulamento de desempenho nos encaminhadores IP era o tempo que se demorava para fazer o lookup duma rota na tabela de encaminhamento. O problema é definido como a busca numa base de dados de prefixos de destinos e encontrar o prefixo mais longo que unifica com o endereço de destino dum dado pacote. A unificação com o prefixo mais longo foi introduzido como uma consequência do requisito de aumentar os números de redes endereçados através do Classless Inter-Domain Routing (CIDR). A técnica do CIDR é usada para sumarizar um conjunto de redes classe C numa única entrada da tabela de encaminhamento. Esta consolidação reduz o número de entradas distintas da tabela de encaminhamento. Dado um pacote um router executa um lookup da tabela de encaminhamento usando como chave o endereço de destino. Este lookup devolve a entrada com a melhor unificação que indica para que interface expedir o pacote e o endereço IP do router no póximo salto. Rede destino Porta /8 3 /16 1 /19 7

21 Ex. de Tabela de Expedição
Prefixo IP de Destino Porta de saída / 8 3 /16 1 /19 7 Tamanho do Prefixo Prefixo IP : 0-32 bits /19 /16 /8 232-1 224

22 Prefixos podem sobrepor-se
Maior prefixo que unifique /24 /21 /21 /8 /19 /16 232-1 Lookup de encaminhamento: Encontre o maior prefixo que unifique (i.e. a rota mais específica) entre todos os prefixos que unifiquem com endereço de destino.

23 Dificuldade da unificação com o prefixo mais longo
Busca bi-dimensional: Comprimento do prefixo Valor do Prefixo 32 Comprimento do Prefixo 24 /24 /21 /21 /19 /16 /8 8 Valores de prefixo

24 Lookup da Tabela de Encaminhamento
Não é nada fácil! A operação de busca não é uma unificação exacta O lookup directo precisa de 4G entradas (32 bits no endereço IP) Unificação com o maior prefixo Tabelas de Hash Árvores balanceadas

25 Tamanho da Tabela de Expedição
Número de Prefixos 10,000/ano 95 96 97 98 99 00 Ano Fonte

26 Trees e Tries Binary Search Tree Binary Search Trie log2N N entries
< > 1 < > < > 1 1 010 111 As primeiras abordagens para a unificação do prefixo mais longo usavam arvores binárias combinadas com tabelas hash. O percurso na árvore dependia de comparações de bits na chave que é o endereço IP de destino. Esses algoritmos de lookup têm uma complexidade proporcional ao número de bits do endereço o que no caso do IPv4 são 32 bits. No pior dos casos demora um tempo proporcional ao tamanho do endereço de destino para encontrar o prefixo mais longo. As primeiras implementações dos routers contudo não tinham capacidade para suportar computações tão pesadas. Assim uma forma de aumentar a velocidade é evitar completamente o lookup da tabela. A tabela de encaminhamento disponibiliza o próximo salto para um dado destino IP. Alguns routers fazem cache desta associação numa BD separada que é consultada antes de se consultar via lookup a tabela de encaminhamento. Encontrar um destino particular nesta BD é mais simples porque uma unificação exacta é menos cara do que a unificação com prefixo mais longo. As técnicas de caching de routing baseiam-se no facto de existir suficiente localidade no tráfego de tal forma que a percentagem de acertos é suficiente alta para amortizar o custo dum lookup em vários pacotes. Esta BD de front-end pode ser organizada como uma tabela de hash. Depois do encaminhador ter expedido vários pacotes se aparecer um dos destinos novamente os lookups podem ser bastante rápidos. Os pacotes para novos destinos são mais lentos porque tem que adicionar o tempo dum desacerto na cache ao lookup da tabela de encaminhamento. Essas caches funcionam bem na periferia da Internet ou em routers dentro de organizações. Contudo, parecem não funcionar bem no core da Internet. O largo número de IPs de destino vistos por estes routers pode provocar overflows ou mesmo que o lookup seja mais lento do que da própria tabela de encaminhamento. Os esquemas de cache não são eficientes quando o tamanho do bucket (nº de destinos para o mesmo valor) começa a ser grande. Tambem as mudanças frequentes de rota vistos nos core routers podem forçá-los a invalidar as suas caches frequentemente, levando a percentagens baixas de acertos.

27 Trees and Tries Multiway tries
16-ary Search Trie 0000, ptr 1111, ptr 0000, 0 1111, ptr 0000, 0 1111, ptr Tipicamente chegam dois tipos de pacotes a um router: os que devem ser encaminhados para uma outra rede ou os que se destinam a si próprio. O router pode usar a tabela de encaminhamento para todos os pacotes ou então testar previamente se são destinados a ele. A verificação explícita aumenta o custo do lookup. A ideia básica seguida por algoritmos mais recentes é criar uma pequena estrutura de dados compactada que use uma pequena fracção de memória. A técnica usa a dispersão das entradas actuais no espaço das entradas possíveis. O resultado é um pequeno número de acessos a memória e lookups mais rápidos. A proposta reduz a tabela de encaminhamento numa representação eficiente duma árvore binária de tal forma que pode ser armazenada em memória central. Para além disso, o algoritmo não tem que calcular funções de hash perfeitas embora as actualizações não sejam simples, embora haja proposta melhoria da sua eficiência. Trabalho mais recente apresenta uma abordagem alternativa que reduz o número de referências de memória me vez de compactar a tabela de encaminhamento. A ideia básica é criar primeiro uma tabela de hash perfeita para cada comprimento de prefixo. Um pesquisa binária entre os prefixos de vários comprimentos usando tabelas de hash para prefixos do mesmo comprimento, faz unificação com o prefixo mais longo com custo O(log N). Técnicas baseadas em hardware estão também a ser investigadas.

28 Problema CIDR Aloque endereços de forma tão sequencial quanto possível dos seguintes pedidos de endereços. O último endereço usado para o último pedido foi Rede A Hosts Rede B B Hosts Rede C - 16,384 Hosts Rede D Hosts Rede E Hosts Para cada rede mostre o endereço de rede, a máscara e a gama de endereços.

29 Problema CIDR Satisfaça os mesmos pedidos do problema anterior sem CIDR Indique para cada rede o endereço de rede e como os endereços seriam alocados Compare esta solução com a anterior e diga quantos endereços eram desperdiçados (poupados).

30 Encaminhamento com CIDR
A tabela de encaminhamento seguinte usa CIDR (Classless Inter-Domain Routing).  Os endereços estão em hexadecimal.  A notação "/12" em C / 12 indica uma máscara de rede com os primeiros 12 bits isto é FF.F0.0.0.  Observe que as três últimas entradas cobrem todo o espaço de endereçamento e constituem rota por defeito. Diga para onde serão expedidos os pacotes com os seguintes endereços de destino: a.C4.5E b. C4.5E.22.09 C. C d.5E a.A   b.A c.E d.F

31 Discussão Discuta a adopção da abordagem CIDR (Classless Inter-Domain Routing) referindo problemas que permite resolver a complexidade introduzida no procedimento de expedição de pacotes O CIDR permite diminuir consideravelmente o tamanho das tabelas de encaminhamento já que se agrupam endereços com o mesmo prefixo. Todavia a unificação do endereço com as entradas da tabela de encaminhamento torna-se mais complexa uma vez que já não se trata de uma unificação simples mas sim com o maior prefixo, feito portanto a duas dimensões.

32 Interiores dum Encaminhador IP com QOS

33 Encaminhador com QoS Que diferenças básicas existem entre um encaminhador melhor esforço e um encaminhador com qualidade de serviço? Que módulos adicionais existem e para que servem?

34 Componentes Arquitecturais Básicos dum Router com QoS
Controlo de Congestão Controlo Controlo de Admissão Reservas Encaminhamento Escalonamento da Saída Comutação Fluxo de dados processamento por pacote Policiamento

35 Limitação: LB Interconexão
Componentes arquitecturais básicos Percurso de dados: processamento por pacote 1. Ingresso 2. Interconexão 3. Egresso Tabela de classificação Tabela de Expedição Policiamento & Contrlo de Accessos Decisão de Expedição Tabela de classificação Tabela de Expedição Policiamento & Contrlo de Accessos Decisão de Expedição Tabela de classificação Tabela de Expedição Policiamento & Contrlo de Accessos Decisão de Expedição Limitação: LB Memória Limitação: LB Interconexão Energia & Arbitragem

36 Evolução dos Encaminhadores IP

37 Routers IP de Primeira Geração
Shared Backplane CPU Buffer Memory CPU Memory Line Interface Line Interface DMA MAC Line Interface DMA MAC Line Interface DMA MAC Os Encaminhadores IP de 1ª geração eram baseados em implementação software numa simples unidade de CPU de propósito geral. Esses routers consistem num processador de uso geral e várias placas de interface interligados através dum barramento partilhado. Os pacotes chegados às interfaces são enviados ao CPU que determina o próximo salto e o envia de volta para uma interface de saída. Os dados são normalmente armazenados numa memória central que conduz à desvantagem dos dados cruzarem o barramento duas vezes tornando-o no maior estrangulamento. O processamento de pacotes e o software de gestão do nó (operação de protocolos de encaminhamento, manutenção da tabela de encaminhamento, lookups da tabela de encaminhamento e outros protocolos de controlo e gestão tal como o ICMP e SNMP) são concretizados pelo processador central. Infelizmente esta arquitectura simples conduz a baixo desempenho pelas seguintes razões: O processador central tem que processar todos os pacotes que passam pelo router ou que se destinam a ele. Isto representa um sério estrangulamento Algumas tarefas de processamento do pacote no router envolvem intensivas operações de memória o que limita a eficácia conseguida com melhorias no processador. Os lookups da tabela de encaminhamento e os moviementos de dados consomem a mior parte dos ciclos de processamento. O movimento de dados duma interface para outra (quer através da memória ou não) é uma tarefa que consome bastante tempo e muitas vezes excede o tempo de processamento do cabeçalho do pacote. Em muitos casos, o bus de E/S transforma-se rapidamente numa limitação severa ao desempenho global. A maioria dos switches Ethernet e routers mais baratos O Estrangulamento pode ser o CPU, barramento de I/O ou host adaptor O que é mais caro? Barramento? Memória? Interface? CPU?

38 Routers IP de Primeira Geração Estrutura de Filas: Memória Partilhada
Inúmeros trabalhos provaram e tornaram possível: Equidade(Fairness) Garantia de atraso Controlo de jitter Garantia de Perdas Garantias estatísticas Entrada 1 Output 1 Entrada 2 Output 2 Um buffer simples em memória alocado dinamicamente : N escritas per “cell” time N leituras per “cell” time. Limitado pela largura de banda da memória Entrada N Output N

39 Routers IP de Segunda Geração
CPU Buffer Memory Line Card DMA MAC Local Para a segunda geração de encaminhadores foram introduzidos melhoramentos na arquitectura de barramento partilhado, distribuindo as operações de expedição de pacotes. Distribuindo processadores rápidos e buffers de transmissão pelas placas de interface de rede reduz a carga no barramento. Assim, os pacotes são transmitidos apenas uma vez através do barramento. Isto reduz o número de cópias no barramento e aumenta o desempenho na expedição de pacotes usando uma cache com os endereços vistos mais frequentemente. Nesta arquitectura, o router mantém uma cópia principal da tabela de encaminhamento e as interfaces de rede apenas mantêm uma cache modesta dos endereços usados mais recentemente. As caches são preenchidas de acordo com o tráfego, sendo o primeiro pacote para um novo destino encaminhado pelo processador de encaminhamento. A partir daí é mantida uma cópia dessa entrada na interface de rede para encaminhar com maior celeridade os pacotes subsequentes do mesmo fluxo.Essas entradas expirarm periodicamente para manter a cache actualizada e podem ser invalidadas subitamente devido a mudanças de topologia. A altas velocidades a tabela de encaminhamento central constitui facilmente um gargalo porque é muito mais demorada que o processamento de rotas feito nas placas de interface. Uma limitação principal desta arquitectura é que o desempenho global depende bastante do barramento. Um melhoramento nesta arquitectura pode ser conseguido aumentado a memória das placas, aproveitando a diminuição dos custos das memórias com altas larguras de banda. Todavia, o bus partilhado e o CPU de uso geral não escala com linhas de alta capacidade nem disponibiliza desempenhos independente do tráfego. Correspondência de portas nas placas de interface Alta % de acertos na cache local para lookups O que é mais $? Bus? Memória? Interface? CPU?

40 Taxa de E/L determinada pela
Routers IP de Segunda Geração Estruturas combinadas de filas de entrada e saída 1 escrita por tempo de célula 1 leitura por Taxa de E/L determinada pela velocidade do bus Bus

41 Switches/Routers de 3ª Geração
Switched Backplane Line Interface Line Interface Line Interface Line Interface Line Interface Line Interface Line Interface Line Card CPU Card Line Card Line Interface CPU Memory Local Buffer Memory Local Buffer Memory Para aliviar estes estrangulamentos da segunda geração de encaminhadores IP, a 3ª geração de encaminhadores foi desenhada com uma fabrica de comutação a substituir o bus partilhado. A fábrica disponibiliza suficiente largura de banda para transmitir pacotes entre as interfaces e permite o aumento de desempenho várias ordens de magnitude. Removendo o gargalo da unidade de interconexão, o gargalo passa a ser o processamento de pacotes.Este desenho coloca os engenhos de expedição fora das placas de interface. Quando o pacote chega a uma interface, o seu cabeçalho é removido é passa através para um engenho de expedição. O restante do pacote é mantida na interface de entrada. O engenho de expedição lê o cabeçalho para determinar como expedir o pacote e actualiza o cabeçalho devolvendo-o conjuntamente com instruções de expedição para a placa de interface de entrada. Esta integra o novo cabeçalho com o resto do pacote e envia o pacote inteiro para a interface de saída para transmissão. O engenho de expedição pode ser descrito por alto pelos seguintes três estágios: 1. O primeiro inclui o seguinte que pode ser feito em paralelo: verificação básica de erro para confirmar que o cabeçalho é dum datagrama IPv4; Confirma que o comprimento do pacote e do cabeçalho são razoáveis; Confirma que o cabeçalho IPv4 não tem opção; Calcula o deslocamento hash da rota na cache e; Começa a carregar o cabeçalho seguinte 2. O segundo estágio verifica se a rota em cache unifica com o destino do datagrama. Senão desencadeia um lookup da tabela de encaminhamento e guarda a nova entrada na cache; a seguir verifica e actualiza o TTL 3. O 3º estágio o TTL actualizado e o checksum são colocados no novo cabeçalho IP. É extraída a informação de encaminhamento da tabela de expedição e é escrito o cabeçalho actualizado juntamente com a informação da camada de ligação (extraida da tabela). MAC MAC Disponibiliza percursos paralelos (switching fabric) O que é mais $? Bus? Memória, CPU?

42 Tipicamente <50Gb/s capacidade agregada
Switches/Routers de 3ª Geração Estrutura de filas de espera 1 escrita por tempo de célula 1 leitura por tempo de célula Taxa de E/L determinada pela capacidade a fabric speedup Switch Arbiter Tipicamente <50Gb/s capacidade agregada

43 Routers/Switches de 4ª Geração
Ligações ópticas 100’s of feet Switch Core Linecards

44 Separação física entre o núcleo de comutação e as cartas de linha
Distribui energia por vários armários. Permite todo armazenamento (buffering) colocado nas placas de linha: Reduz energia. Coloca a complexidade (escalonamento, gestão de buffers, política de descarte de pacotes, etc…) na placa de linha

45 Routers/Switches de 4ª Geração
of feet Protocolo LCS Ligações ópticas Switch Core Linecards

46 Routers/Switches de 4ª Geração Estruturas de filas de espera
Filas de espera de saída virtuais 1 escrita por tempo de célula 1 leitura por tempo de célula Velociadade de Escrita/leitura Determinadas pela velocidade da switching fabric Lookup & Política de descrate Escalonamento de saída Switch Fabric Lookup & Política de descrate Escalonamento de saída Switch Arbitration Lookup & Política de descrate Switch Core (Bufferless) Escalonamento de saída Linecard Linecard Tipicamente <5Tb/s capacidade agregada

47 Problemas dos Fabricantes
Rápida expedição (lookup de rotas) Identificação de Fluxos Percurso rápido de expedição Suporte de QoS Routers de núcleo, empresa ou acesso A simplicidade é a chave do sucesso Fiabilidade(estabilidade) de routers de alta velocidade Energia dual Percursos de dados duplicados Facilidade de configuração Má configuração é outro problema sério Possibilidade de contabilização


Carregar ppt "Encaminhadores IP Sistemas Telemáticos 2002/2003 LESI"

Apresentações semelhantes


Anúncios Google