Princípios de Sistemas de Informação

Apresentações semelhantes


Apresentação em tema: "Princípios de Sistemas de Informação"— Transcrição da apresentação:

1 Princípios de Sistemas de Informação
Curso: TI - UNIP Disciplina: Princípios de Sistemas de Informação Professor: Shie Yoen Fang 1° semestre 2011

2 Informações de Produtividade
Representante da turma – , telefone e celular. Todos os alunos da classe devem ter essas informações. Toda comunicação com os professores e a turma ocorrerá através do representante da turma. O coordenador dos cursos de TI estará conversando com vocês para passar a dinâmica do curso, formas de avaliação, etc. Todo o material do curso de Princípios de Sistemas de Informação será em PowerPoint e será entregue em arquivo digital para o representante da turma para que este repasse para a turma. Na medida do possível estarei entregando este material com antecedência para que vocês possam imprimir e fazer as anotações da aula nas cópias. Peço a todos que peguem pelo menos três contatos da turma de tal forma que caso você tenha que ausentar, alguém passe e pegue o material entregue para você depois.

3 Como o ser humano aprende
Modelo de desenvolvimento humano adotado pela maioria das universidades TOP dos Estados Unidos. Através dos professores (1/3) Auto aprendizado (1/3) Com colegas (1/3)

4 Conceito de Competência
A competência desenvolvida por uma pessoa é função de 3 componentes (CHA): Conhecimento – É o conhecimento que possui sobre um determinado assunto/atividade. Ter informações, estar bem informado. Habilidade – É a prática sobre um determinado assunto. Expertise. Experimentações. Aprender com os erros passados. Faculdade (Estudo de Casos). A maioria das questões do ENADE são de estudo de caso onde se espera uma capacidade de análise e desenvolvimento de uma solução. Atitude – É a postura, disposição que uma pessoa tem em relação a uma atividade. A grande maioria das empresas grandes e principalmente as multinacionais possuem processos de avaliação de desempenho 180º ou 360º baseado nesses três pilares.

5 Conceitos BIT BYTE Tabela ASCII KILOBYTE = KB MEGABYTE = MB
GIGABYTE = GB TERABYTE = TB Fonte: Marçula: capítulo 1.

6 Bit Em inglês BInary digiT. O bit é a menor unidade de informação nos sistemas computacionais. O bit possui dois estados (não magnetizado ou magnetizado) e é representado simbolicamente pelos números 0 (zero) e 1 (um). Um bom exemplo é a lâmpada. Quando a lâmpada está apagada dizemos que tem o valor 0 e quando está ligado dizemos que tem o valor 1.

7 Notação Binária A numeração decimal utiliza os números 0 a 9 enquanto que a numeração binária utiliza somente os números 0 e 1. Decimal Binária Passar exercício 1. 1 2 10 3 11 4 100

8 Sistemas de Numeração Sistema Decimal => base 10 10⁴ 10³ 10² 10¹ 10⁰ Sistema Binário => base 2 2⁵ 2⁴ 2³ 2² 2¹ 2⁰ (num. binário) = 41

9 Sistema Binário - O sistema binário é a forma que os sistemas computacionais conseguem processar e armazenar. Desta forma, como o computador manipula os caracteres numéricos, alfanuméricos e especiais em um mundo que só entende 0 (não magnetizado) e 1 (magnetizado)?

10 BYTE É o nome dado para um número binário de 8 bits. É através do byte que é feita a representação de um caractere! Pergunta sobre o exercício 1: Quantos valores ou ocorrências podem ser representados com um número binário constituído de 8 dígitos?

11 Como estão armazenados os bits
Lembrando que 0 (zero) significa que na mídia (memória RAM, CD Rom, DVD, HardDisk, PenDrive, Blue Ray, etc) tem um ponto não magnetizado e 1 (um) significa que o ponto na mídia está magnetizado. A agulha dos leitores desses dispositivos conseguem ler/identificar esses “pontos”magnetizados/não magnetizados .

12 Tabela ASC II A ANSI (American National Standards Institute) criou, em 1963, a codificação ASCII (American Standard Coded for Information Interchange) com o intuito de que ela fosse o padrão para a indústria de computadores. Foi idealizada utilizando um número binário de 8 bits, dos quais sete eram utilizados para representar caracteres (128 símbolos) e um era utilizado com uma função especial chamado de bit de paridade.

13 Tabela ASC II Numeração Decimal Numeração Binária ASCII 1 51 110011 3
1 51 110011 3 101 151 201 2 10 52 110100 4 102 152 202 11 53 110101 5 103 153 203 100 54 110110 6 104 154 204 55 110111 7 105 155 205 110 56 111000 8 106 156 206 111 57 111001 9 107 157 207 1000 58 111010 108 158 208 1001 59 111011 109 159 209 1010 60 111100 160 210 1011 61 111101 161 211 12 1100 62 111110 112 162 212 13 1101 63 111111 113 163 213 14 1110 64 114 164 214 15 1111 65 A 115 165 215 16 10000 66 B 116 166 216 17 10001 67 C 117 167 217 18 10010 68 D 118 168 218 19 10011 69 E 119 169 219 20 10100 70 F 120 170 220

14 Tabela ASC II Byte (8 bits) Caracter 0100 0001 A 0110 0001 a 0011 0000
0100 0001 A 0110 0001 a 0011 0000 0100 0010 B 0110 0010 b 0011 0001 1 0100 0011 C 0110 0011 c 0011 0010 2 0100 0100 D 0110 0100 d 0011 0011 3 0100 0101 E 0110 0101 e 0011 0100 4 0100 0110 F 0110 0110 f 0011 0101 5 0100 0111 G 0110 0111 g 0011 0110 6 0100 1000 H 0110 1000 h 0011 0111 7 0100 1001 I 0110 1001 i 0011 1000 8 0101 1000 X 0111 1000 x 0011 1001 9 0101 1001 Y 0111 1001 y 0011 1010 : 0101 1010 Z 0111 1010 z 0011 1011 ;

15 Exercício 2 de ASCII Suponha que você é um leitor de CD\DVD e está lendo um pedaço de dados que está armazenado no harddisk, conforme apresentado no exercício 2. Utilizando a tabela ASCII e lembrando que cada byte corresponde a um número de 8 bits com valores 0 ou 1, transforme os dados apresentados para os caracteres correspondentes na tabela ASCII.

16 Unidades de BYTE BYTE = conjunto de 8 bits
KILOBYTE = KB = 1024 bytes (um mil ...) MEGABYTE = MB = 1024 KB = bytes (um milhão...) GIGABYTE = GB = 1024 MB = bytes (um bilhão...) TERABYTE = TB = 1024 GB = bytes (um trilhão...)

17 Unidades de BYTE Kilobyte (KB) = 1024 Bytes Mil
Megabyte (MB) = KB Milhão Gigabyte (GB) = MB Bilhão Terabyte (TB) = GB Trilhão Petabyte (PB) = TB Mil trilhões Exabyte (EB) = PB Milhão de trilhões Zettabyte (ZB) = EB Yottabyte (YB) = ZB

18 Lei de Moore A lei de Moore diz que “A cada 18 a 24 meses é lançada uma nova tecnologia que permite que os computadores dupliquem o desempenho” Se considerarmos 24 meses, a tecnologia Intel se encaixa perfeitamente nesta lei.

19 Exercício 3 Quantas fotos de alta definição (1 MB) podem ser armazenados em 1 Terabyte? Quanto custa um HD (harddisk) com capacidade de armazenamento de 1 TB? Quantos filmes de DVD podem ser armazenados em um HD de TB? Quantos filmes em Full HD (Full High Definition / Blu-ray) podem ser armazenados em um HD de 1 TB?

20 Evolução Tecnológica Resultado da pesquisa feita no dia 23/02/2011 no

21 Evolução Tecnológica - USB
USB 3.0 (ou SuperSpeed USB) chega ao mercado em um momento basicamente crítico em relação a transmissão de dados. Isso porque a tecnologia 2.0, a qual possui uma taxa de transferência de 480 Mbps (60 MB/s), já não está dando conta de transferir, por exemplo, vídeos em alta definição. Por sua vez, a USB 3.0 promete solucionar tal problema, uma vez que possuir taxa de transferência de dados de 4,8 Gbps (600 MB/s), ou seja, dez vezes mais rápida que a tecnologia anterior! A USB 3.0 possui quatro fios a mais dentro do seu cabo (totalizando oito), os quais funcionam de maneira independente para enviar e receber, ao mesmo tempo, dados para o computador. Diferentemente de sua sucessora, a USB 2.0 possui somente quatro cabos, sendo somente dois deles para a troca de informações, ou seja, a “falta” de cabos faz com que os dados sejam enviados em somente uma direção, ou seja, eles saem do computador e somente depois de chegar ao dispositivo USB os dados contidos nele são enviados para o computador. Os dispositivos com USB 3.0 funcionam com conexões USB 2.0.

22 Unidade de taxas de transmissão
A taxa de transmissão de um canal ou meio físico é a quantidade de bits que esse meio consegue transmitir por segundo. Esta taxa pode ser expressa em bits por segundo - bps (bits per second) - ou Kylobits, Megabits ou Gigabits por segundo (Bps, Mbps, Gbps, Tbps) Para conseguir transformar em bytes é preciso dividir o número de bits por 8 Mbps  Megabits por segundo => + de 1 milhão de bits por segundo

23 Evolução dos computadores
ENIAC EDVAC ORDVAC SEAC LEO I Very-Large-Scale-Integration (VLSI) GRID 1101 1981 Lançamento de PC (Personal Computer)

24 Evolução dos computadores
O ENIAC (Electrical Numerical Integrator and Computer) foi o primeiro computador digital eletrônico em grande escala. Criado em fevereiro de 1946 pelos cientistas norte-americanos John Eckert e John Mauchly, da Electronic Control Company.

25 O EDVAC EDVAC (Electronic Discrete Variable Automatic Computer) foi um dos primeiros computadores eletrônicos. Diferentemente de seu predecessor ENIAC, utilizava o sistema binário e possuía arquitetura de von Neumann.

26 O ORDVAC O ORDVAC ou Ordnance Discrete Variable Automatic Computer, foi um computador construído pela Universidade de Illinois para o Laboratório de Pesquisa Balística em Aberdeen Proving Ground. Foi o primeiro computador a ter um compilador. ORDVAC tornou-se operacional na primavera de Sua finalidade era realizar cálculos de trajetória balística para os militares dos Estados Unidos.

27 O SEAC SEAC (Standards Electronic/Eastern Automatic Computer) era um eletrônico first-generation computador, construído dentro 1950 pelo Departamento Nacional dos Padrões (NBS). Era um computador small-scale projetado para ser construído rapidamente e posto em operação. SEAC foi demonstrado em abril 1950 e em maio do mesmo ano entrou em produção cheia, tornando-se o primeiro computador eletrônico a funcionar com store-program .

28 Leo I Leo I (Lyons Eletronic Computer) é o primeiro computador comercial funcionou sua primeira aplicação de negócio em Modelado próximo do Cambridge, era o primeiro computador usado para aplicações de negócio comerciais.

29 Em 1955 Em 1955, um computador pesava apenas 3 toneladas e consumia 50 kwatts de potencia, tendo um custo de US$ Uma máquina destas podia realizar 50 multiplicações por segundo. Assim, os primeiros computadores eram também eles máquinas que só estavam ao alcance de grandes empresas ou instituições que tinham necessidades de cálculo muito exigentes e que possuíam as condições econômicas para tão grande investimento.

30 Entre 1952 a 1960 Com o rápido desenvolvimento dos transístores entre 1952 e 1960, os tubos de vácuo tornaram-se obsoletos e foi este avanço tecnológico que permitiu a criação de máquinas muito mais rápidas, mais pequenas e mais baratas.

31 Miniaturização de circuitos
A construção de circuitos cada vez mais pequenos possibilitou que os circuitos pudessem ser mais leves e dispender menos energia, por terem menos superfície para a dissipação de energia por calor. Esta miniaturização permitiu que se tivesse a mesma capacidade de cálculo de um ENIAC na palma de uma mão. A diminuição do tamanho fez também diminuir a quantidade de energia necessária e o custo caiu com a produção em série dos novos processadores.

32 Circuitos integrados Very-Large-Scale-Integration (VLSI) é o processo de criação de circuitos integrados, combinando milhares de transistores em um único chip. VLSI começou nos anos 1970, quando complexas tecnologias de semicondutores e de comunicação estavam sendo desenvolvidos. O microprocessador é um dispositivo VLSI.

33 Em 1977 Em 1977 uma calculadora manual pesava menos de meio quilo e consumia meio watt e podia realizar 250 multiplicações por segundo, custando US$ 300. Hoje uma calculadora pesa poucos gramas podendo ser incorporada em réguas ou agendas, funciona até a energia solar e custa menos de US$ 5.

34 Grid 1101 Compass Grid 1101 é considerado o primeiro notebook do mundo. Ele foi desenvolvido pelo designer inglês Bill Moggridge em 1979 e vendido 3 anos depois. Para uma concepção de informática de 32 anos atrás, você tem que reconhecer que o desenho dele foi incrivelmente avançado para o seu tempo!

35 Em 1981 Em 1981 a IBM lançou no mercado o PC (Personal Computer).
O PC distinguia-se das máquinas existentes até então por estar dirigido a utilizadores individuais que poderiam passar a ter na sua secretária uma máquina para uso exclusivo, quando até aí esse conceito não existia... Os computadores eram mainframe, centralizados, e os utilizadores tinham apenas um monitor e um teclado sendo todo o processamento realizado no servidor. O PC tinha ainda outra característica que o tornou revolucionário que era o fato de ter uma arquitetura aberta, ou seja, qualquer fabricante poderia criar peças adaptáveis aquela máquina dando-lhe uma funcionalidade mais especializada, o que até aí era sempre privilégio reservado para o fabricante do computador. Assim o PC passou a ser o standard de fato na indústria.

36 Curiosidades Um Pentium a 3 GHz é capaz de realizar 6 bilhões de somas por segundo, enquanto o ENIAC conseguia realizar apenas A memória do ENIAC apenas permitia guardar 200 bits, enquanto qualquer computador pessoal tem pelo menos 1 GB, ou seja, bits! O ENIAC custava em torno de US$ enquanto um micro com processador Pentium custa menos de US$ 500. Em resumo, milhões de vezes mais potentes e centenas de milhares de vezes mais baratos!

37 Tipos de Computadores Critério baseado no porte (capacidade de processamento) 1) Supercomputadores 2) Grande porte (Mainframe) 3) Médio porte (Mini computadores) Computador utilizado para servidores transacionais de alto volume 4) Micro computadores De mesa (desktop/tablet pc) Pessoal Servidores utilizado para automação de escritórios e comerciais Portáteis (notebook, netbook) 5) Dispositivos Móveis (Palmtops ou Handheld) Fonte: Marçula capítulo 5

38 Unidade de medida de capacidade de processamento
FLOPS (ou flops) é acrônimo de computação que significa Floating point Operations Per Second, que, em português, quer dizer operações de ponto flutuante por segundo. Isto é usado para determinar o desempenho de um computador, especificamente no campo de cálculos científicos, que fazem grande uso de cálculos com ponto flutuante, similar a instruções por segundo. Computador Desempenho Nome flops megaflop 106 1 milhão de operações por segundo gigaflop 109 1 bilhão de operações por segundo teraflop 1012 1 trilhão de operações por segundo petaflop 1015 1 quatrilhão de operações por segundo exaflop 1018 1 quinqualhão de operações por segundo zettaflop 1021 yottaflop 1024

39

40

41

42

43 Minicomputadores  Servidores
Fonte:

44 Capacidade de processamento - QphH
Composite Query-per-Hour Performance Metric (QphH)

45 Quadro Tipos de Computadores
Supercomputadores Tianhe-1A processa 2,5 petaflops Maior supercomputador do mundo que foi desenvolvido pela Universidade Nacional de Tecnologia de Defesa (NUDT, sigla em inglês) da China, apresentado em outubro de 2010. Grande Porte (Main-frame) Dezenas de milhares de MIPS (Milhões de Instruções por Segundo) A unidade MIPS não é comparável ao conceito de FLOPS (Operações por segundo). Médio Porte (Mini-computadores) Usa unidade de Pesquisas (Query) por hora (QphH) ou Transações por segundo (TPS) Estas unidades de medições são realizadas por institutos independentes. Pessoal (Micro computadores) 1 a 20 gigaflops (bilhões de operações por segundo) Dispositivos Móveis Em torno de 1 gigaflops Ler artigo “Mainframe chega aos 45 anos”

46 Supercomputador da NASA

47 Plano de Aula Componentes de um computador: CPU Memória Hardware
Dispositivos de entrada e saída Periféricos

48 Arquitetura von Neumann
No ENIAC, o programa era feito rearranjando a fiação em um painel. Nesse ponto John von Neumann propôs a idéia que transformou os calculadores eletrônicos em “cérebros eletrônicos”: modelar a arquitetura do computador segundo o sistema nervoso central. Para isso, eles teriam que ter três características: Codificar as instruções de uma forma possível de ser armazenada na memória do computador. Von Neumann sugeriu que fossem usados uns e zeros. Armazenar as instruções na memória, bem como toda e qualquer informação necessária a execução da tarefa, e Quando processar o programa, buscar as instruções diretamente na memória, ao invés de lerem um novo cartão perfurado a cada passo. Fonte: Wikipédia (“computador”)

49 Arquitetura von Neumann - CPU

50 Unidade de Controle (UC)
A unidade de controle (UC) coordena todas as atividades realizadas pelo CPU, fornecendo sinais de controle que sincronizam e ordenam as micro operações realizadas pela UC. A sincronização é necessária para que os outros componentes do sistema de computação funcionem de maneira correta. A UC gera uma cadência de pulso elétricos de sincronização transmitidos aos demais componentes do sistema, que utilizam esses pulsos para sincronizar a sua operação com a operação da UC. Um pulso do relógio é a menor unidade de tempo que o processamento acontece, conhecido como ciclo do relógio (clock). Algumas instruções gastam somente um ciclo para serem realizadas, enquanto outras levam vários ciclos. A velocidade de um computador é dada pelo seu relógio e é medida em Hz (hertz – ciclos por segundo) que indica a frequência que os ciclos ocorrem. Os primeiros PCs possuíam relógios com velocidade de 4,7 MHz. Os PCs modernos atingem velocidades de alguns GHz (bilhões de ciclos por segundo). Se todas as instruções gastassem somente um ciclo poderíamos dizer que um computador com 4,7 GHz significa ter capacidade para processar 4,7 bilhões de instruções por segundo, porém como apresentando acima, várias instruções precisam de mais de um ciclo para serem executados.

51 Unidade de Controle (UC)
A unidade de controle (UC) contém instruções gravadas no seu hardware, é o chamado microcódigo, um conjunto de instruções básicas (códigos binários), que indicam quais operações a CPU é capaz de realizar. Essas operações consistem em: Operações aritméticas (soma, subtração, multiplicação e divisão) Operações lógicas (AND, OR, XOR, etc.) Operações de movimentação de dados (memória=>CPU, registrador=> memória, etc.) Operações de desvio (alteração da sequência normal de execução das instruções) Operações de entrada e saída (troca de dados com as memórias “de massa” ou com os dispositivos de entrada/saída)

52 Unidades Lógicas e Aritméticas (ULA)
Quando a UC encontra uma instrução que envolve operações aritméticas ou lógicas, ela passa o controle para a ULA que possui a capacidade de realizar esse tipo de operação. Para fazer isso, a ULA possui circuitos eletrônicos complexos que lhe permitem realizar um conjunto de operações simples. Quando tem que realizar operações mais complexas, acontece a realização simultânea de várias dessas operações simples. Outra característica importante da ULA é que ela não armazena nenhum dado. Atualmente as CPUs possuem diversas ULAs, classificadas de acordo com a sua função (operação com valores inteiros, operação com valores de ponto flutuante, etc.)

53 Registradores Para auxiliar a UC e a ULA no processamento das instruções, como esses componentes não armazenam os dados com que trabalham, a CPU possui internamente registradores, que são memórias mais rápidas disponíveis para uso da CPU e são usados como locais de armazenamento temporário dos dados. A maioria das operações é realizada nos registradores. Por exemplo, quando a CPU necessita somar o valor 1 ao que está armazenado em determinada posição da memória principal, ela copia o conteúdo atual dessa posição de memória em um registrador. A ULA recebe esse valor do registrador e soma 1, armazenando o resultado novamente no registrador. Daí, esse valor é copiado para a posição original da memória principal. O tamanho em bits dos registradores de uma CPU determina a quantidade de dados que ela pode processar ao mesmo tempo, o limite de valores que ela pode trabalhar e até a velocidade com que ela consegue realizar as operações. A frase “processador (CPU) de 32 bits” ou “processador de 64 bits” indica que o tamanho dos registradores do processador é de 32 ou 64 bits. Apresentar texto “Processadores de 32 bits x 64 bits”

54 Memória Principal Para realizar o processamento, o computador necessita armazenar dados e instruções. Para isso, possui internamente registradores, mas eles só podem armazenar poucos bytes e a CPU necessita de milhares, ou mesmo milhões, de bytes de espaço para armazenar programas inteiros e os dados que estão sendo manipulados por esses programas. Para isso, a CPU utiliza a memória principal, que é uma área de armazenamento temporário. Fisicamente essa memória consiste de alguns chips ou uma pequena placa de circuitos. A memória permite que a CPU armazene dados (operação de escrita) e recupere dados (operação de leitura) muito rapidamente. A memória principal é formada por elementos de armazenamento de dados organizados na forma de uma matriz, na qual cada posição tem um único endereço (representado por um número binário), referenciado conforme a sua posição sequencial. Os endereços de memória são conhecidos pela UC e utilizados por ela para acessar os dados ou instruções durante as atividades do processamento. Os dados e instruções não se movem fisicamente para a memória, são sempre copiados. Mais detalhes sobre tipos de memória serão apresentados na próxima aula.

55 Barramento do Processador (CPU)
É o caminho físico interno pelo qual os dados são transferidos entre os componentes do sistema de computação. Só pode receber dados de uma única fonte de cada vez. Basicamente existem 3 tipos de barramento: Barramento de dados ou de memória – transfere dados entre os componentes Barramento de endereços – transfere endereços entre os componentes Barramento de controle – transfere sinais de controle entre os componentes A partir do tamanho do barramento de endereços (em bits) é possível calcular o tamanho da memória. Por exemplo, em um barramento de endereços de 8 bits, é possível endereçar 256 posições de memória. Este é o tamanho da memória principal. Lembrando que com 8 bits é possível criar somente 256 combinações diferentes de bits e cada combinação será o endereço de uma posição da memória principal. Vale observar que existem outros tipos de barramentos além do barramento de processador tais como o de memória, cache, entrada e saída, etc.


Carregar ppt "Princípios de Sistemas de Informação"

Apresentações semelhantes


Anúncios Google