Prof. Dr. Kamel Bensebaa Processamento de Imagens e Computação Gráfica Aula 1.

Slides:



Advertisements
Apresentações semelhantes
Aplicações Informáticas A 11º Ano
Advertisements

Luz É a energia que se propaga por ondas eletromagnéticas.
ÓRBITA E OLHO.
DCA-0114 Computação Gráfica
Tecnologia Hipermídia e Multimídia Prof. Rudson Faculdade de Excelência Educacional do Rio Grande do Norte CURSO DE GRADUAÇÃO TECNOLÓGICA.
Tecnologia Hipermídia e Multimídia Prof. Rudson Faculdade de Excelência Educacional do Rio Grande do Norte CURSO DE GRADUAÇÃO TECNOLÓGICA EM DESENVOLVIMENTO.
The Cyclops Project German-Brazilian Cooperation Programme on IT CNPq GMD DLR Departamento de Informática e Estatística - INE/CTC/UFSC Computação Gráfica:
The Cyclops Project German-Brazilian Cooperation Programme on IT CNPq GMD DLR Visão Computacional Prof. Dr. rer.nat. Aldo von Wangenheim.
Fundamentos e Aquisição de Imagens Digitais
Eng 639 – Processamento de Imagens Digitais
1. SINAIS Contém informações sobre uma variedade de coisas e atividades em nosso mundo físico. PROCESSAMENTO DE SINAIS Ato de extrair as informações necessárias.
Eng 639 – Processamento de Imagens Digitais
Computação Gráfica: Rendering e Rasterização
Robótica MO810/MC959
Fundamentação Teórica
Introdução à Óptica Geométrica
2 Elementos da Percepção Visual
Utilização do Scanner Trabalho realizado por: Fábio Santos nº 1
Professor: Diones Charles
Teoria da Cor.
7. Color Image Processing
MEEA,15 de Outubro de 2001 Técnicas de visualização, aquisição e processamento de imagem.
Digital Image Processing, 2nd ed. © 2002 R. C. Gonzalez & R. E. Woods O interesse em métodos para processamento digital de.
Ray Tracing Felipe Baldino Moreira Fundamentos de Computação Gráfica
FUSÃO DE IMAGENS DIGITAIS Prof. Dr. Antônio Nuno de Castro Santa Rosa.
Visão Computacional Formação da Imagem
Computação Gráfica - Cor
Sistema Visual Humano Anatomia e Processamento de Sinais
Guilherme Defreitas Juraszek
MOUSE LASER Trabalho da disciplina de Física 4
GEOPROCESSAMENTO Aula 5: Processamento de imagens e fotointerpretação
Multimédia Imagem digital
Processamento de Imagem
ÓPTICA GEOMÉTRICA PREGOLINI.
Processamento de Imagens
Prof. Leandro da Silva Taddeo
Ray Tracing Anderson Tavares Bacharelado em Ciência da Computação
Capítulo II – Imagem Digital
Computação Gráfica – Visibilidade
RADIOLOGIA DIGITAL.
Revisão Geral Técnicas de Realce Histogramas
Processamento Digital de Imagens
Image Based Cartoon Style Rendering Jeronimo Silvério Venetillo Fabio Issao Nakamura.
Processamento Digital de Imagens Giuliano Sant’Anna Marotta UNIPAC UBÁ
Computação Gráfica – Visibilidade Profa. Mercedes Gonzales Márquez.
Introdução ao Processamento Digital de Imagens
OS ELEMENTOS ESSENCIAIS V
Classificação de Imagens de Sensoriamento Remoto
Ray Tracing Estocástico e Distribuido Aruquia Barbosa.
Imagens: De intensidade e de Profundidade Prof a Dr a Mercedes Gonzales Márquez Prof a Dr a Mercedes Gonzales Márquez Universidade Estadual de Mato Grosso.
Introdução à Computação Gráfica
Computação Gráfica – Visibilidade Profa. Mercedes Gonzales Márquez.
Digital Image Processing, 2nd ed. © 2002 R. C. Gonzalez & R. E. Woods 3 Representação da Imagem Digital O espectro eletromagnético.
Introdução ao Processamento Digital de Imagens
Computação Gráfica: 11. Cores Prof. Dr. Rafael Andrade
Computação Gráfica – Visibilidade Profa. Mercedes Gonzales Márquez.
Teoria da Cor Trabalho realizado por: Catarina Ferreira nº4 12ºB.
PEE 5789 Conceitos Avançados de Síntese de Imagens AULA 02 Modelos Locais de Iluminação Marcio.
Diagrama em blocos: Hardware de Computadores
Análise Digital de Imagens
Processamento de Imagens e Computação Gráfica
Luz.
1  Integração de Pontos  Aspectos técnicos  Discriminação baseada na entidade em movimento  Fonte de iluminação  Sensor  Objeto imageado  Uso sobretudo.
Fundamentos de Redes de Computadores
Objetivo Este projeto destina-se ao estudo e à elaboração de modelos neurais artificiais, com o auxílio do programa Matlab. O objetivo principal deste.
Aplicações Informáticas A 11º Ano Unidade 3 – Utilização do Sistema Multimédia.
AULA 6: Composição- sistemas ordenadores Professora: Geórgia Feitosa
É uma onda eletromagnética
Prof.: Raphael Carvalho. ÓPTICA GEOMÉTRICA É a parte da Física que estuda os fenômenos relacionados com a luz e sua interação com meios materiais quando.
Noções de cores Cor é como o olho dos seres vivos animais interpreta a reemissão da luz vinda de um objeto que foi emitida por uma fonte luminosa por meio.
Transcrição da apresentação:

Prof. Dr. Kamel Bensebaa Processamento de Imagens e Computação Gráfica Aula 1

Ementa Dispositivos de exibição Fundamentos de cor Projeções geométricas Transformações geométricas em 2D e 3D Visualização em 2D e 3D Clipping Tratamento de superfícies escondidas Modelos de iluminação Algoritmos de Rendering Conceito de Ray Tracing

Manipulação de imagens Operações pontuais Transformações de histograma Filtragem no domínio do espaço Filtragem para supressão de ruído Filtragem para realce de detalhes Filtragem baseada em estatisticas de ordem e adaptativos Modelos para restauração de imagens no dominio do espaço Bibliotecas e programas de computador para computação gráfica e processamento de imagens Ementa

Bibliografia Processamento de Imagens  Livro Texto  Gonzalez and Woods, Digital Image Processing, 2o ed, 2001,Addison Wesley Pub.  Castleman, Kenneth R., Digital Imag Processing, Prentice-Hall,1995.  Jain, Anil K., Fundamentals of Digital Image Processing, Prentice-Hall,  Sonka, M., Hlavac, V. e Boyle, R., Image Processing Analysis and Machin Vision, Chapman & Hall,  Referência adicional  Tutorial do MATLAB

Bibliografia Computação Gráfica  Livro Texto  HEARN, Donald. Computer Graphics. 2. ed. Englewood Cliffs, NJ: Prentice-Hall  Fundamentals of Interactive Computer Graphics. Foley & van Damm. 1. e 2. edições  Principles of Interactive Computer Graphics. Williem Newman & Robert Sproull. McGraw-Hill/Kogakusha  Referência adicional  OpenGL 1.2 Programming Guide, Third Edition: The Official Guide to Learning OpenGL, Version 1.2, Mason Woo, Jackie Neider, Tom Davis, Dave Shreiner.

Avaliação  Implementação de um algoritmo  20%  Participação em aula  20%  1 trabalhos prático  60%

Por que estudar Processamento de Imagens?  O futuro está no processamento de informação multimídia  O uso de processamento de imagens digitais tem grande variedade de aplicações  Astronomia, biologia, geologia, geografia, medicina, direito, inspeção industrial,...  Diferentes modalidades de acordo com a fonte: Visual, Raios X, Tomografia Computadorizada, Imagens de Ressonância magnética, Computador (Imagens Sintéticas)

O que é Processamento de Imagens?  Extração da informação na imagem digital  Manipulação de imagens pelo computador  Exemplos  Realce de imagens (Melhora a qualidade visual da imagem  Remoção do ruído na imagem  Restauração da imagem ( mesmo algoritmo utilizado no realce da imagem porém necessita da informação sobre a fonte de degradação  Compressão de imagens

 Computação Gráfica  Entrada: dados  Saída: Imagens  Processamento de Imagens  Entrada: Imagens  Saída: Imagens  Visão Computacional  Simular a visão humana  Reconhecer/Identificar padrões O que é Processamento de Imagens?

INFORMAÇÃO IMAGEM CG VC PI Áreas Corelatas

Aquisição Pré-processamento Segmentação Extração de Atributos Reconhecimento e Interpretação Sistema de visão computacional e processamento de imagensDecisão Processamento de baixo nível Processamento de nível intermediário Processamento de alto nível

Sistema de Aquisição de Imagens O sistema de aquisição de imagens depende: – Sistema Óptico que adequa a imagem do Objeto à Câmera; –Câmera digital; –Hardware de processamento digital.

Sistema Ótico Para ter sucesso na implementação de algoritmos de processamento de imagens, deve-se tomar muito cuidado na escolha de cada componente do sistema ótico. É necessario ter como entrada uma imagem de boa qualidade para alcançar bons resultados na interpretação de informações.

Parâmetros fundamentais do sistema ótico

Campo de visão (Field of View): representa a área do objeto em estudo, ou seja, a porção do objeto que preenche e sensibiliza a área do sensor. Distância de Trabalho (Working Distance – WD): representa a distância da parte frontal das lentes até a superfície do objeto. Trata- se normalmente de uma faixa de valores (máximo e mínimo).

Parâmetros fundamentais do sistema ótico Resolução (Resolution – R): representa a menor porção do objeto em estudo que pode ser distinguida pelo sistema. É normalmente visualizada em pares de linha, ou em número de pixels, e também é bem conhecida pela expressão “resolução espacial”. Tamanho do Sensor (Sensor Size – SS): representa o tamanho da área ativa do sensor, especificada em sua dimensão horizontal. Tamanhos comuns são de 1/4, 1/3, 1/2, 2/3 e 1 polegada.

Profundidade de Campo (Depth of Field – DOF): representa a maior distância (em termos de profundidade no campo de visão) que pode ser mantida em foco no objeto em estudo para uma determinada distância de trabalho. Também pode ser vista como a quantidade de movimento permitida ao objeto que ainda conserve foco na área ou superfície inspecionada. Parâmetros fundamentais do sistema ótico

Sensor CCD (Charge Coupled Device) Os fótons de energia luminosa incidente no sensor CCD desprendem certa quantidade de elétrons (propocional a intensidade luminosa) ao entrar em contato com o material semi-condutor do sensor. Os elétrons capturados pelos fotos-diodos do sensor são guardados em áreas de armazenamento para posterior transmissão das informações na forma de uma sinal eletrico. Esses equipamentos são compostos de elementos discretos de imagem em silício (“fotossítios”), num único “chip” de circuito integrado, cuja voltagem de saída é proporcional à intensidade da luz incidente.

Sensor CCD (Charge Coupled Device) O CCD pode ser visto como um arranjo fixo, de estado sólido, de fontes de potencial distribuída em linha ou numa superfície normal, retangular ou quadrangular. Cada fonte acumula carga elétrica proporcional à intensidade da luz incidente. Uma imagem é obtida expondo-se o arranjo a uma cena desejada e criando-se uma distribuição bidimensional de potencial elétrico armazenado dentro de cada fonte. A imagem analógica é captada pela leitora e digitalizando o potencial dentro de cada fonte. Os equipamentos de imagens do estado sólido baseiam-se no efeito fotoelétrico e na formação de elétrons livres na região de silício iluminada – atingida por fótons

Sensor CCD (Charge Coupled Device)

Os fotoelétrons produzidos num local são aprisionados na fonte de potencial mais próxima e são transferidos como um “pacote de cargas” para o fundo de uma série de elementos até alcançar o terminal externo. O processo de leitura é realizado seqüencialmente. A primeira fonte de potencial de cada linha é “lida” através de um conversor analógico/digital e o potencial elétrico ao longo de cada linha é deslocado de uma posição. Após o potencial da primeira fonte ter sido digitalizado, todos potenciais remanescentes transferem seus potenciais elétricos ao vizinho imediato. Esse processo continua seqüencialmente até todas as fontes de cada linha terem sido lidas e digitalizadas

Processo de leitura de um Sensor CCD

Problemas dos Sensores CCD Os sensores CCD sofrem com um problema de super saturação (blooming) de seus elementos sensitivos. O fenômeno ocorre quando uma fonte luminosa é capturada em frente a um fundo escuro, resultando em um ponto luminoso super saturado que cresce de forma incontrolavel na imagem. Além deste problema, o sistema de deslocamento serial dos eletrons quantizados é ainda um grande problema para melhorar a taxa de transferencia de dados a partir destes sensores.

Sensores CMOS ( Complementary Metal-Oxide-Semiconductor ) Em sensores CCD, os elétrons gerados pela emissão de fótons sobre o sensor têm de ser coletados, armazenados e posteriormente transmitidos de maneira serial por registradores de deslocamento. Este procedimento requere uma fatia de tempo de execução. Nos sensores CMOS, os elementos fotosensíveis (foto-diodos) estão diretamente acoplados em resistores, permitindo uma contínua transformação da quantidadede luminosa recebida em um sinal elétrico proporcional.

Sensores CMOS ( Complementary Metal-Oxide-Semiconductor )

Vantagens dos Sensores CMOS Sensores CMOS permitem acesso direto ao valor de qualquer pixel da matriz do sensor, tal qual é feito o acesso de um elemento da imagem na memória do computador. É possível acoplar funcionalidades inteligentes ao sensor, como por exemplo, alguns algoritmos de processamento de imagens (compressão, filtragem, dentre outros). O consumo de energia de sensores CMOS é cerca de cem vezes menor do que de sensores CCD, sendo que a bateria de uma câmera filmadora com um sensor CMOS poderia durar cerca de uma semana, enquanto a do CCD duraria algumas horas.

Sistema de iluminação O sistema de iluminação é a projeção de luz sobre o objeto em estudo, pois em geral estes não emitem luz própria, que é necessária para a sensibilização do sensor ótico. Quando se menciona em luz, entende-se qualquer faixa do espectro luminoso, e não apenas a faixa do espectro visível ao olho humano. Existem muitas soluções de visão que requerem inclusive a aplicação de luz incidente em faixas não visíveis do espectro luminoso, com por exemplo, as imagens de tomografia médica, algumas imagens astronômicas e imagens infra-vermelho de curvas de calor. A escolha de um tipo de iluminação correto para o ambiente da aplicação torna-se extremamente importante, pois se o objeto em estudo não for destacado (apresentar bom contraste) em relação às demais informações da cena, dificilmente consegue-se progredir na solução, e o projeto pode ser totalmente inviabilizado.

Sistema de iluminação Iluminação é essencial para o funcionamento apropriado dos algoritmos de aquisição de imagens – Características:  Mínimo de sombras  Mínimo de reflexos  Alto contraste Tipos de sistema de iluminação: – Sistema de iluminação por reflexão  Conjunto de refletores posicionados para evitar formação de sombras de variações bruscas na luminosidade ambiente – Sistema de iluminação por contraste  refletores) destinados a formar silhueta do objeto

Espectro luminoso A figura seguinte ilustra toda a faixa do espectro luminoso. Repara-se como é pequena a faixa visível ao olho humano, e quão limitada seria a tecnologia de visão caso se restringisse apenas a esta estreita faixa do espectro

Crominância e Luminância A luminância é a componente da imagem que só contem as informações de brilho (tons de cinza) de uma imagem (os valores de cinza entre o preto e o branco). –A luminância é o principal componente da imagem que lhe distingue por sua nitidez e qualidade. A crominância ou croma de uma imagem confere o colorido sem acrescentar maior riqueza nos detalhes que já devem estar representados pela luminância. –A crominância é um componente que agrega as cores a uma imagem.

Espaço de cores RGB (Red Green Blue) é um espaço de cores formado por três cores primarias (Vermelho, Verde e Azul). É um dos espaços de cores mais utilizado para processamento e armazenamento de dados digitais de imagens. –A alta relação entre os canais (muitos objetos do mundo real possuem essas três cores misturadas). –O percentual significativo de não-uniformidade e a mistura dos dados de crominância e luminância fazem do RGB uma escolha não muito favorável para a analise de cores e algoritmos baseados em reconhecimento de cores.

Red Green Blue (RGB) A figura mostra o cubo tridimensional de cores Observe-se também as cores secundárias: –Azul-turquesa (Cyan) –Magenta –Amarelo (Yellow)

Aquisição de imagens coloridas As imagens coloridas, através de sensores CCD, são obtidas através de filtros, que separam a luz em sinais RGB (Red, Green, Blue) e três sensores de imagem CCD capturam os respectivos sinais filtrados.

Red Green Blue (RGB)

Imagem em escala de cinza (Greyscale image)