A apresentação está carregando. Por favor, espere

A apresentação está carregando. Por favor, espere

Prof. Dr. Kamel Bensebaa Processamento de Imagens e Computação Gráfica Aula 1.

Apresentações semelhantes


Apresentação em tema: "Prof. Dr. Kamel Bensebaa Processamento de Imagens e Computação Gráfica Aula 1."— Transcrição da apresentação:

1 Prof. Dr. Kamel Bensebaa Processamento de Imagens e Computação Gráfica Aula 1

2 Ementa Dispositivos de exibição Fundamentos de cor Projeções geométricas Transformações geométricas em 2D e 3D Visualização em 2D e 3D Clipping Tratamento de superfícies escondidas Modelos de iluminação Algoritmos de Rendering Conceito de Ray Tracing

3 Manipulação de imagens Operações pontuais Transformações de histograma Filtragem no domínio do espaço Filtragem para supressão de ruído Filtragem para realce de detalhes Filtragem baseada em estatisticas de ordem e adaptativos Modelos para restauração de imagens no dominio do espaço Bibliotecas e programas de computador para computação gráfica e processamento de imagens Ementa

4 Bibliografia Processamento de Imagens  Livro Texto  Gonzalez and Woods, Digital Image Processing, 2o ed, 2001,Addison Wesley Pub.  Castleman, Kenneth R., Digital Imag Processing, Prentice-Hall,1995.  Jain, Anil K., Fundamentals of Digital Image Processing, Prentice-Hall, 1988.  Sonka, M., Hlavac, V. e Boyle, R., Image Processing Analysis and Machin Vision, Chapman & Hall, 1993.  Referência adicional  Tutorial do MATLAB

5 Bibliografia Computação Gráfica  Livro Texto  HEARN, Donald. Computer Graphics. 2. ed. Englewood Cliffs, NJ: Prentice-Hall  Fundamentals of Interactive Computer Graphics. Foley & van Damm. 1. e 2. edições  Principles of Interactive Computer Graphics. Williem Newman & Robert Sproull. McGraw-Hill/Kogakusha  Referência adicional  OpenGL 1.2 Programming Guide, Third Edition: The Official Guide to Learning OpenGL, Version 1.2, Mason Woo, Jackie Neider, Tom Davis, Dave Shreiner.

6 Avaliação  Implementação de um algoritmo  20%  Participação em aula  20%  1 trabalhos prático  60%

7 Por que estudar Processamento de Imagens?  O futuro está no processamento de informação multimídia  O uso de processamento de imagens digitais tem grande variedade de aplicações  Astronomia, biologia, geologia, geografia, medicina, direito, inspeção industrial,...  Diferentes modalidades de acordo com a fonte: Visual, Raios X, Tomografia Computadorizada, Imagens de Ressonância magnética, Computador (Imagens Sintéticas)

8 O que é Processamento de Imagens?  Extração da informação na imagem digital  Manipulação de imagens pelo computador  Exemplos  Realce de imagens (Melhora a qualidade visual da imagem  Remoção do ruído na imagem  Restauração da imagem ( mesmo algoritmo utilizado no realce da imagem porém necessita da informação sobre a fonte de degradação  Compressão de imagens

9  Computação Gráfica  Entrada: dados  Saída: Imagens  Processamento de Imagens  Entrada: Imagens  Saída: Imagens  Visão Computacional  Simular a visão humana  Reconhecer/Identificar padrões O que é Processamento de Imagens?

10 INFORMAÇÃO IMAGEM CG VC PI Áreas Corelatas

11 Aquisição Pré-processamento Segmentação Extração de Atributos Reconhecimento e Interpretação Sistema de visão computacional e processamento de imagensDecisão Processamento de baixo nível Processamento de nível intermediário Processamento de alto nível

12 Sistema de Aquisição de Imagens O sistema de aquisição de imagens depende: – Sistema Óptico que adequa a imagem do Objeto à Câmera; –Câmera digital; –Hardware de processamento digital.

13 Sistema Ótico Para ter sucesso na implementação de algoritmos de processamento de imagens, deve-se tomar muito cuidado na escolha de cada componente do sistema ótico. É necessario ter como entrada uma imagem de boa qualidade para alcançar bons resultados na interpretação de informações.

14 Parâmetros fundamentais do sistema ótico

15 Campo de visão (Field of View): representa a área do objeto em estudo, ou seja, a porção do objeto que preenche e sensibiliza a área do sensor. Distância de Trabalho (Working Distance – WD): representa a distância da parte frontal das lentes até a superfície do objeto. Trata- se normalmente de uma faixa de valores (máximo e mínimo).

16 Parâmetros fundamentais do sistema ótico Resolução (Resolution – R): representa a menor porção do objeto em estudo que pode ser distinguida pelo sistema. É normalmente visualizada em pares de linha, ou em número de pixels, e também é bem conhecida pela expressão “resolução espacial”. Tamanho do Sensor (Sensor Size – SS): representa o tamanho da área ativa do sensor, especificada em sua dimensão horizontal. Tamanhos comuns são de 1/4, 1/3, 1/2, 2/3 e 1 polegada.

17 Profundidade de Campo (Depth of Field – DOF): representa a maior distância (em termos de profundidade no campo de visão) que pode ser mantida em foco no objeto em estudo para uma determinada distância de trabalho. Também pode ser vista como a quantidade de movimento permitida ao objeto que ainda conserve foco na área ou superfície inspecionada. Parâmetros fundamentais do sistema ótico

18 Sensor CCD (Charge Coupled Device) Os fótons de energia luminosa incidente no sensor CCD desprendem certa quantidade de elétrons (propocional a intensidade luminosa) ao entrar em contato com o material semi-condutor do sensor. Os elétrons capturados pelos fotos-diodos do sensor são guardados em áreas de armazenamento para posterior transmissão das informações na forma de uma sinal eletrico. Esses equipamentos são compostos de elementos discretos de imagem em silício (“fotossítios”), num único “chip” de circuito integrado, cuja voltagem de saída é proporcional à intensidade da luz incidente.

19 Sensor CCD (Charge Coupled Device) O CCD pode ser visto como um arranjo fixo, de estado sólido, de fontes de potencial distribuída em linha ou numa superfície normal, retangular ou quadrangular. Cada fonte acumula carga elétrica proporcional à intensidade da luz incidente. Uma imagem é obtida expondo-se o arranjo a uma cena desejada e criando-se uma distribuição bidimensional de potencial elétrico armazenado dentro de cada fonte. A imagem analógica é captada pela leitora e digitalizando o potencial dentro de cada fonte. Os equipamentos de imagens do estado sólido baseiam-se no efeito fotoelétrico e na formação de elétrons livres na região de silício iluminada – atingida por fótons

20 Sensor CCD (Charge Coupled Device)

21 Os fotoelétrons produzidos num local são aprisionados na fonte de potencial mais próxima e são transferidos como um “pacote de cargas” para o fundo de uma série de elementos até alcançar o terminal externo. O processo de leitura é realizado seqüencialmente. A primeira fonte de potencial de cada linha é “lida” através de um conversor analógico/digital e o potencial elétrico ao longo de cada linha é deslocado de uma posição. Após o potencial da primeira fonte ter sido digitalizado, todos potenciais remanescentes transferem seus potenciais elétricos ao vizinho imediato. Esse processo continua seqüencialmente até todas as fontes de cada linha terem sido lidas e digitalizadas

22 Processo de leitura de um Sensor CCD

23 Problemas dos Sensores CCD Os sensores CCD sofrem com um problema de super saturação (blooming) de seus elementos sensitivos. O fenômeno ocorre quando uma fonte luminosa é capturada em frente a um fundo escuro, resultando em um ponto luminoso super saturado que cresce de forma incontrolavel na imagem. Além deste problema, o sistema de deslocamento serial dos eletrons quantizados é ainda um grande problema para melhorar a taxa de transferencia de dados a partir destes sensores.

24 Sensores CMOS ( Complementary Metal-Oxide-Semiconductor ) Em sensores CCD, os elétrons gerados pela emissão de fótons sobre o sensor têm de ser coletados, armazenados e posteriormente transmitidos de maneira serial por registradores de deslocamento. Este procedimento requere uma fatia de tempo de execução. Nos sensores CMOS, os elementos fotosensíveis (foto-diodos) estão diretamente acoplados em resistores, permitindo uma contínua transformação da quantidadede luminosa recebida em um sinal elétrico proporcional.

25 Sensores CMOS ( Complementary Metal-Oxide-Semiconductor )

26 Vantagens dos Sensores CMOS Sensores CMOS permitem acesso direto ao valor de qualquer pixel da matriz do sensor, tal qual é feito o acesso de um elemento da imagem na memória do computador. É possível acoplar funcionalidades inteligentes ao sensor, como por exemplo, alguns algoritmos de processamento de imagens (compressão, filtragem, dentre outros). O consumo de energia de sensores CMOS é cerca de cem vezes menor do que de sensores CCD, sendo que a bateria de uma câmera filmadora com um sensor CMOS poderia durar cerca de uma semana, enquanto a do CCD duraria algumas horas.

27 Sistema de iluminação O sistema de iluminação é a projeção de luz sobre o objeto em estudo, pois em geral estes não emitem luz própria, que é necessária para a sensibilização do sensor ótico. Quando se menciona em luz, entende-se qualquer faixa do espectro luminoso, e não apenas a faixa do espectro visível ao olho humano. Existem muitas soluções de visão que requerem inclusive a aplicação de luz incidente em faixas não visíveis do espectro luminoso, com por exemplo, as imagens de tomografia médica, algumas imagens astronômicas e imagens infra-vermelho de curvas de calor. A escolha de um tipo de iluminação correto para o ambiente da aplicação torna-se extremamente importante, pois se o objeto em estudo não for destacado (apresentar bom contraste) em relação às demais informações da cena, dificilmente consegue-se progredir na solução, e o projeto pode ser totalmente inviabilizado.

28 Sistema de iluminação Iluminação é essencial para o funcionamento apropriado dos algoritmos de aquisição de imagens – Características:  Mínimo de sombras  Mínimo de reflexos  Alto contraste Tipos de sistema de iluminação: – Sistema de iluminação por reflexão  Conjunto de refletores posicionados para evitar formação de sombras de variações bruscas na luminosidade ambiente – Sistema de iluminação por contraste  refletores) destinados a formar silhueta do objeto

29 Espectro luminoso A figura seguinte ilustra toda a faixa do espectro luminoso. Repara-se como é pequena a faixa visível ao olho humano, e quão limitada seria a tecnologia de visão caso se restringisse apenas a esta estreita faixa do espectro

30 Crominância e Luminância A luminância é a componente da imagem que só contem as informações de brilho (tons de cinza) de uma imagem (os valores de cinza entre o preto e o branco). –A luminância é o principal componente da imagem que lhe distingue por sua nitidez e qualidade. A crominância ou croma de uma imagem confere o colorido sem acrescentar maior riqueza nos detalhes que já devem estar representados pela luminância. –A crominância é um componente que agrega as cores a uma imagem.

31 Espaço de cores RGB (Red Green Blue) é um espaço de cores formado por três cores primarias (Vermelho, Verde e Azul). É um dos espaços de cores mais utilizado para processamento e armazenamento de dados digitais de imagens. –A alta relação entre os canais (muitos objetos do mundo real possuem essas três cores misturadas). –O percentual significativo de não-uniformidade e a mistura dos dados de crominância e luminância fazem do RGB uma escolha não muito favorável para a analise de cores e algoritmos baseados em reconhecimento de cores.

32 Red Green Blue (RGB) A figura mostra o cubo tridimensional de cores Observe-se também as cores secundárias: –Azul-turquesa (Cyan) –Magenta –Amarelo (Yellow)

33 Aquisição de imagens coloridas As imagens coloridas, através de sensores CCD, são obtidas através de filtros, que separam a luz em sinais RGB (Red, Green, Blue) e três sensores de imagem CCD capturam os respectivos sinais filtrados.

34 Red Green Blue (RGB)

35 Imagem em escala de cinza (Greyscale image)


Carregar ppt "Prof. Dr. Kamel Bensebaa Processamento de Imagens e Computação Gráfica Aula 1."

Apresentações semelhantes


Anúncios Google