“LOCALIZAÇÃO DE ROBÔS E MAPEAMENTO DO AMBIENTE USANDO KINECT®”

Slides:



Advertisements
Apresentações semelhantes
Paulo Sérgio Rodrigues PEL205
Advertisements

BITS ++ E A CORREÇÃO GAMA
DCA-0114 Computação Gráfica
Prof. Alex Fernandes da Veiga Machado
Projeções e OpenGL Alex F. V. Machado.
Visualização de Imagens HDR
Rosangela Sampaio Reis
SISTEMAS DISTRIBUÍDOS
Iana Alexandra Alves Rufino
Estrutura e movimento a partir de imagens
Alberto B. Raposo INF 1366 – Computação Gráfica Interativa Raytracing (resumo) POVRAY – Persistence of Vision Raytracer Alberto.
Pablo C.Elias e Thiago Bastos, Dezembro de 2006 Reconstrução de Ruínas em Tempo Real.
Acompanhamento de Cenas com Calibração Automática de Câmeras
Análise de Histograma para segmentação de fundo de imagens
QoS para Realidade Virtual
A terceira dimensão.
FLG Análise Espacial e Geoprocessamento
Computação Gráfica: Aula5: Rendering e Rasterização
Computação Gráfica: Aula5: Rendering e Rasterização
Computação Gráfica: Rendering e Rasterização
DESENVOLVIMENTO DE SISTEMA DE REALIDADE VIRTUAL PARA VISUALIZAÇÃO 3D DA GEOMETRIA DE DUTOS – MÓDULO DE VISUALIZAÇÃO Cauê Avila Clasen (bolsista); Analucia.
Processamento de dados sísmicos
Fundamentação Teórica
Visite nosso site ! - Soluções em Geoprocessamento Distribuidor autorizado da MicroImages.
CONTEUDO ROBÓTICA MÓVEL 1.1. Percepção Sensores do Nomad XR4000
WonderFly Project Sistemas de Engenharia – Automação e Instrumentação.
Teresa C. S. Azevedo, João Manuel R. S. Tavares, Mário A. P. Vaz
Processamento de Imagens: Conceitos Básicos
DESENVOLVIMENTO DE UM MÓDULO DE EDIÇÃO DE ÁUDIO E VÍDEO PARA UM AMBIENTE DE ESTÚDIO VIRTUAL AUMENTADO Orientador: Prof Adj Antonio Carlos Sementille.
PCS - Departamento de Engenharia de Computação e Sistemas Digitais Projeto de Formatura – Turmas 2008 Integrantes: Anderson José Perottoni Fernando Y.
Desenvolvimento de um Sistema de Visão 3D para Inspeção e Reparo Robotizado Submerso Mauricio Edgar Stivanello (bolsista); Armando Albertazzi Gonçalves.
RECONSTRUÇÃO 3D Equipe: Amora Cristina (acat) Anália Lima (alc5)
Reconstrução de formas Solução geométrica baseada na escavação do espaço e em superfícies reflectoras Nuno Martins Coimbra Novembro de 2001.
Estimação da direção de múltiplas fontes de luz Baseado no artigo Estimation of Illuminant Direction and Intensity of Multiple Light Sources, de W. Zhou.
Visão Computacional Formação da Imagem
Aprendizado por reforço aplicado à navegação de robôs
Belo Horizonte (MG), junho de 2004
GEOPROCESSAMENTO Aula 5: Processamento de imagens e fotointerpretação
Futebol de robôs, uma aplicação de robótica
Teresa C. S. Azevedo, João Manuel R. S. Tavares, Mário A. P. Vaz
Reconstrução Tridimensional usando IPP Trabalho final do curso de Visão Computacional DCC / UFMG Apresentação: Antônio Wilson Vieira.
Visualização Tridimensional (Câmera Sintética)
Visite nosso site ! - Soluções em Geoprocessamento Distribuidor autorizado da MicroImages.
Abr-17 Atividades, Artefatos e Responsáveis da Disciplina de Análise e Projeto Fluxo de análise e projeto.
TRABALHOS FEITOS COM O NOMAD NO GRACO
Processamento Digital de Imagens
Relator: Leandro Augusto da Silva Contestador: Ramon Alfredo Moreno São Paulo, 14 de Março, de 2008.
Interfaces baseadas em traço Claudio Esperança e Emilio Vital Brasil.
Marcelo B. Nogueira Bruno Xavier da Costa Adelardo A. D. Medeiros
Detecção da Bola em Vídeos de Futebol Universidade Federal de Pernambuco Centro de Informática Computação Gráfica – Acompanhamento de Projeto Luiz Felipe.
Sistemas de Rastreamento de Baixo Custo para Desktops Tecgraf (Grupo de Tecnologia em Computação Gráfica) Depto. de Informática, PUC-Rio Alberto Raposo,
Visualização 3D de Imagens Médicas
ARToolkit Ademir José de Carvalho Junior Danilo Cavalcanti Torres
ARToolkit André Braga (ab2) Alysson Feitoza (afs5) Danilo Lima (dlv)
Adriano Melo Filipe Melo Mateus Araújo Philippe Neves Renato Parente Samuel Arcoverde Wesley Davison.
Shadow Mapping.
Profª Marta Becker Villamil
Plano de Aulas  Estruturas de aceleração  Descarte contra volume de visão  Descarte por oclusão  Grafo de cena: OpenSceneGraph  Traçado de raios em.
Guiagem do Robô Móvel XR4000 para Inspeção via Internet de Tubulações Industriais Soldadas Universidade de Brasília Faculdade de Tecnologia Departamento.
Reconhecimento de Elementos Geométricos em Imagens Computacionais. Nelson Abu Samra Rahal Junior.
Operações para entrada de dados –Compilação de dados codificação de dados geográficos de uma forma conveniente para o sistema; incluem a digitalização,
Teoria da Cor Trabalho realizado por: Catarina Ferreira nº4 12ºB.
Proposta de trabalho: Calibração de câmera
Proposta de trabalho: Rastreamento da movimentação de uma câmera.
ARToolkit Equipe: David Emannuel – desc Phillip Cesar – pcas Rodrigo Siqueira – rss4 Yuri Pereira - ycssp.
Atividades, Artefatos e Responsáveis da Disciplina de Análise e Projeto.
Nossos 2 olhos formam imagens ligeiramente diferentes do mundo A diferença entre as posições de objetos nas 2 images é chamada de disparidade O termo disparidade.
1 Computação Gráfica Prof. Dr. Júlio C. Klafke UNIP-Objetivo
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 12 Aprendizado não Supervisionado Mapas auto-organizáveis Max Pereira.
Xx. x x xxx.
Transcrição da apresentação:

“LOCALIZAÇÃO DE ROBÔS E MAPEAMENTO DO AMBIENTE USANDO KINECT®” Gustavo Emerich 825476 Orientador: Renê Pegoraro

Objetivo Desenvolver um sistema capaz de perceber a existência de objetos na área onde o Kinect atua, gerando informações sobre a disposição de objetos que podem interferir com o deslocamento do robô no ambiente. Estas informações poderão ser utilizadas para oferecer subsídios para que o sistema de controle do robô tome decisões de como desviar ou empurrar algum objeto

Kinect Baseado em projetar padrões e medir a deformação do ponto (luz estruturada) Mapa de profundidade em tempo real (30 fps) Imagem RGB que pode ser utilizada em conjunto com o mapa de profundidade

PCL A Biblioteca Nuvens de Ponto (ou PCL) é um projeto aberto em grande escala para processamento 3D de imagens em forma de nuvens de ponto. O Framework PCL contém numerosos estado-da-arte, incluindo os algoritmos de filtragem, estimativa de recurso, reconstrução de superfície, registro e ajuste do modelo de segmentação. http://www.pointclouds.org/

PCL - Open Source

O que é uma nuvem de pontos? A nuvem de pontos é uma estrutura de dados usada para representar uma coleção de pontos multi-dimensionais e é comumente usada para representar dados tridimensionais. Em uma nuvem de ponto 3D, os pontos geralmente representam as coordenadas geométricas X, Y, e Z de uma superfície subjacente amostrada. Quando as informações de cor está presente (veja a figura abaixo), a nuvem torna-se ponto 4D. http://www.pointclouds.org/

Como Capturar? Nuvens de pontos podem ser capturadas através de câmeras estéreo, sensores laser e dispositivos 3D como o Kinect. A PCL suporta nativamente as interfaces 3D da biblioteca OpenNI e consegue capturar dados de um Kinect e transformá-los para nuvem de pontos

Módulos Bibliotecas utilizadas: I/O Filters Tracking Segmentation Visualization

Filter Downsample - Usa uma grade de voxel(pixel volumétrico) sobre a nuvem de entrada e calcula o “centro de massa” sobre cada voxel. Passthrough – Filtra as dimensões em x, y ou z de acordo com parâmetros.

Exemplos

Segmentation Plane model segmentation – Procura um modelo plano na cena e segmenta-o da cena, é possível trabalhar apenas com o plano ou com o restante dele. Euclidean cluster extraction – Procura por pontos vizinhos que estão dentro de um raio R limitador e agrupa-os em clusters.

Exemplo Model segmentation

Exemplo Cluster extraction

Tracking Track – Procura em uma determinada cena a existencia de uma possível transformação de um objeto segmentado.

Tracking

Algoritmo de localização I/O Passthrough Filter Downsample Filter Plane Model Segmentation Cluster Extraction Object Tracking

Video

Cronograma   Maio Junho Julho Agosto Setembro Outubro Novembro 1 X 2 3 X  4 5 6 1 - Traçar os requisitos do sistema (materiais, equipamentos, softwares). 2 - Realizar levantamento sobre a utilização dos equipamentos. 3 - Desenvolver a aplicação que interpreta os dados do Kinect® 4 - Desenvolver a aplicação que comanda o robô 5 - Testar o ambiente para encontrar bugs. 6 - Monografia e documentação

DUVIDAS?