A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Compressão de Dados ORI Ednaldo Pizzolato. COMPRESSÃO A Compressão ou Compactação de dados destina-se a retirar a redundância dos dados de forma a diminuir.

Apresentações semelhantes


Apresentação em tema: "Compressão de Dados ORI Ednaldo Pizzolato. COMPRESSÃO A Compressão ou Compactação de dados destina-se a retirar a redundância dos dados de forma a diminuir."— Transcrição da apresentação:

1 Compressão de Dados ORI Ednaldo Pizzolato

2 COMPRESSÃO A Compressão ou Compactação de dados destina-se a retirar a redundância dos dados de forma a diminuir o seu tamanho.redundância A compressão de dados, como o nome sugere, é o ato de comprimir os dados. Comprimir algo é torná-lo menor. Assim, comprimimos os dados pelos mais diversos motivos entre os quais: economizar espaço discos rígidos oudiscos rígidos ganhar desempenho (Modems).Modems

3 COMPRESSÃO Assim, o objetivo da compressão de dados é representar a informação da melhor forma possível utilizando a menor quantidade de dados possível.

4 COMPRESSÃO Para comprimir utilizamos regras, chamadas de códigos ou protocolos, que quando seguidas, eliminam os bits redundantes de informações.bits

5 COMPRESSÃO Existem 2 tipos de compressão: Com perdas (Lossy) Sem perdas (Lossless) As compressões com perdas são aquelas operações que admitem alguma perda de qualidade dos dados (exemplo típico: as imagens.jpg na internet em que se percebe uma diminuição da qualidade próximo às bordas ou, inclusive, trocas de cor na imagem).jpginternet

6 COMPRESSÃO Existem 2 tipos de compressão: Com perdas (Lossy) Sem perdas (Lossless) As compressões sem perdas são aquelas operações que não admitem alguma perda de qualidade dos dados (exemplo: as imagens gif).

7 COMPRESSÃO Em 1948 o pesquisador Claude E. Shannon publicou um artigo intitulado : A Mathematical Theory of Communication em que formulava a teoria da compressão de dados e indicava que existe um limite fundamental para as compressões sem perdas (denotada por H e conhecida como taxa de entropia).A Mathematical Theory of Communication

8 COMPRESSÃO O valor exato de H depende da informação – mais especificamente, na natureza estatística da mesma. É possível comprimir uma informação (sem perdas) com taxa de compressão próxima a H. Entretanto, é impossível comprimir com taxas melhores que H.

9 COMPRESSÃO Shannon também desenvolveu a teoria da compressão com perdas (lossy). Ela é melhor conhecida como a teoria da taxa de distorção (rate-distortion theory). Nessas compressões, o arquivo obtido da descompressão não é exatamente igual ao original. Na verdade, há uma certa quantidade de distorção, D, que é tolerada.lossyrate-distortion theory

10 COMPRESSÃO MODELAGEM Ordem zero Primeira ordem Segunda ordem Terceira ordem Geral

11 COMPRESSÃO MODELAGEM Imagine que alguém vá a uma biblioteca (com milhares de livros) para escolher um deles, e enviar seu conteúdo pela internet até sua casa (ou colocar em um pen-drive). Vamos assumir que a pessoa tenha escolhido um livro, cuja representação possa ser a seguinte: X = {x 1, x 2,...} onde x i são as letras do livro.

12 COMPRESSÃO MODELAGEM Agora você deve se imaginar como sendo o artista que vai ter que comprimir este conjunto de letras (sem saber qual o livro que foi escolhido) de forma a ser armazenado no pen-drive, por exemplo. Para você, as letras são variáveis randômicas que mapeiam as letras e símbolos do alfabeto.

13 COMPRESSÃO MODELAGEM Na modelagem de ordem zero, cada caractere tem igual probabilidade de ocorrer, independentemente dos caracteres anteriores. Claro que isso não vai representar corretamente as palavras em um determinado idioma.

14 COMPRESSÃO MODELAGEM Na modelagem de primeira ordem, cada caractere ainda mantém sua independência dos demais, mas já se deve contemplar o fato de que algumas letras são mais freqüentes que outras.

15 COMPRESSÃO MODELAGEM Na modelagem de segunda ordem, cada caractere é dependente do caractere mais à esquerda. Por exemplo, dado que o caractere observado é q existe enorme probabilidade que o próximo seja u.

16 COMPRESSÃO MODELAGEM Na modelagem de terceira ordem, cada caractere é dependente dos dois caracteres mais à esquerda...

17 COMPRESSÃO A taxa de entropia de um dado é um número que depende somente da natureza estatística do referido dado. Se o dado tem uma modelagem simples, então a taxa de entropia pode ser calculada facilmente.

18 COMPRESSÃO Na modelagem de ordem zero, os caracteres são estatisticamente independentes uns dos outros (cada letra do alfabeto tem igual probabilidade de ocorrer). Seja m o tamanho do alfabeto. Assim, a entropia pode ser dada por: Se o alfabeto contiver 27 letras, então H = 4.75 bits/caractere. Notar que no ASCII são 8 bits por caractere.

19 COMPRESSÃO Na modelagem de primeira ordem, como apresentado anterioremente, os caracteres ainda são estatisticamente independentes uns dos outros, mas a probabilidade de cada letra ocorrer deve ser contemplada. Assim, se m é o tamanho do alfabeto, a entropia pode ser dada por: Se o alfabeto contiver 27 letras, então, neste caso, H seria 4.07 bits/caractere. Novamente, no ASCII são necessários 8 bits por caractere.

20 COMPRESSÃO Compressão = modelo + código entradamodelo codificador saída simb prob.

21 Para ilustrar, vamos utilizar um alfabeto de 2 letras {a,b}, onde as probabilidades são dadas pelo grafo a seguir: COMPRESSÃO ab

22 COMPRESSÃO

23 aa0,450 bb0, ab0, ba0,

24 Suponha que estejamos, agora, trabalhan- do com um alfabeto de 5 letras, onde as probabilidades de ocorrência são as seguintes: a 0,4 b 0,3 c 0,1 d 0,1 e 0,1 COMPRESSÃO

25 Suponha que estejamos, agora, trabalhan- do com um alfabeto de 5 letras, onde as probabilidades de ocorrência são as seguintes: a 0,4 0 b 0,31 c 0,11 d 0,11 e 0,11 COMPRESSÃO

26 Suponha que estejamos, agora, trabalhan- do com um alfabeto de 5 letras, onde as probabilidades de ocorrência são as seguintes: a 0,4 0 b 0,310 c 0,111 d 0,111 e 0,111 COMPRESSÃO

27 Suponha que estejamos, agora, trabalhan- do com um alfabeto de 5 letras, onde as probabilidades de ocorrência são as seguintes: a 0,4 0 b 0,310 c 0,1110 d 0,1111 e 0,1111 COMPRESSÃO

28 Suponha que estejamos, agora, trabalhan- do com um alfabeto de 5 letras, onde as probabilidades de ocorrência são as seguintes: a 0,4 0 b 0,310 c 0,1110 d 0,11110 e 0,11111 COMPRESSÃO

29 Agora, vamos supor o mesmo alfabeto (5 letras), mas com codificação de huffman. a 0,4 b 0,3 c 0,1 d 0,1 e 0,1 COMPRESSÃO

30 Agora, vamos supor o mesmo alfabeto (5 letras), mas com codificação de huffman. a 0,4 b 0,3 c 0,1 d 0,1 e 0,1 COMPRESSÃO de D-E

31 Agora, vamos supor o mesmo alfabeto (5 letras), mas com codificação de huffman. a 0,4 b 0,3 c 0,1 d-e 0,2 COMPRESSÃO de D-E c D-E-C

32 Agora, vamos supor o mesmo alfabeto (5 letras), mas com codificação de huffman. a 0,4 b 0,3 DEC 0,3 COMPRESSÃO de D-E c D-E-C

33 Trabalho – Fazer um resumo de compressão, colocando informações sobre codigo aritmético e algoritmos baseados em dicionário; – Codificar Shannon-Fano e Huffman. COMPRESSÃO


Carregar ppt "Compressão de Dados ORI Ednaldo Pizzolato. COMPRESSÃO A Compressão ou Compactação de dados destina-se a retirar a redundância dos dados de forma a diminuir."

Apresentações semelhantes


Anúncios Google