Autor(es):
Queirós, Hugo Filipe de Oliveira Gomes da Fonseca
Data: 2012
Identificador Persistente: http://hdl.handle.net/10400.22/3286
Origem: Repositório Científico do Instituto Politécnico do Porto
Assunto(s): Point Cloud Library; Kinect; Mapeamento; Mapping
Descrição
A navegação e a interpretação do meio envolvente por veículos autónomos em
ambientes não estruturados continua a ser um grande desafio na actualidade. Sebastian
Thrun, descreve em [Thr02], que o problema do mapeamento em sistemas
robóticos é o da aquisição de um modelo espacial do meio envolvente do robô.
Neste contexto, a integração de sistemas sensoriais em plataformas robóticas,
que permitam a construção de mapas do mundo que as rodeia é de extrema importância.
A informação recolhida desses dados pode ser interpretada, tendo aplicabilidade
em tarefas de localização, navegação e manipulação de objectos.
Até à bem pouco tempo, a generalidade dos sistemas robóticos que realizavam
tarefas de mapeamento ou Simultaneous Localization And Mapping (SLAM), utilizavam
dispositivos do tipo laser rangefinders e câmaras stereo. Estes equipamentos,
para além de serem dispendiosos, fornecem apenas informação bidimensional, recolhidas
através de cortes transversais 2D, no caso dos rangefinders.
O paradigma deste tipo de tecnologia mudou consideravelmente, com o lançamento
no mercado de câmaras RGB-D, como a desenvolvida pela PrimeSense TM e
o subsequente lançamento da Kinect, pela Microsoft
R para a Xbox 360 no final de
2010. A qualidade do sensor de profundidade, dada a natureza de baixo custo e a
sua capacidade de aquisição de dados em tempo real, é incontornável, fazendo com
que o sensor se tornasse instantaneamente popular entre pesquisadores e entusiastas.
Este avanço tecnológico deu origem a várias ferramentas de desenvolvimento e
interacção humana com este tipo de sensor, como por exemplo a Point Cloud Library
[RC11] (PCL). Esta ferramenta tem como objectivo fornecer suporte para todos os blocos de construção comuns que uma aplicação 3D necessita, dando especial ênfase
ao processamento de nuvens de pontos de n dimensões adquiridas a partir de
câmaras RGB-D, bem como scanners laser, câmaras Time-of-Flight ou câmaras stereo.
Neste contexto, é realizada nesta dissertação, a avaliação e comparação de alguns
dos módulos e métodos constituintes da biblioteca PCL, para a resolução de
problemas inerentes à construção e interpretação de mapas, em ambientes indoor
não estruturados, utilizando os dados provenientes da Kinect.
A partir desta avaliação, é proposta uma arquitectura de sistema que sistematiza
o registo de nuvens de pontos, correspondentes a vistas parciais do mundo, num
modelo global consistente.
Os resultados da avaliação realizada à biblioteca PCL atestam a sua viabilidade,
para a resolução dos problemas propostos. Prova da sua viabilidade, são os resultados
práticos obtidos, da implementação da arquitectura de sistema proposta, que
apresenta resultados de desempenho interessantes, como também boas perspectivas
de integração deste tipo de conceitos e tecnologia em plataformas robóticas desenvolvidas
no âmbito de projectos do Laboratório de Sistemas Autónomos (LSA). The navigation and interpretation of the environment by autonomous vehicles in
unstructured environments continues to be a major challenge nowadays. Sebastian
Thrun, in [Thr02], states that the problem of robotic mapping is "acquiring a spatial
model of a robot’s environment".
In this context, the integration of sensory systems in robotic platforms enabling
the construction of a world map of the environment is of utmost importance. The
information collected from the data can be interpreted, having applicability in localization,
navigation and manipulation of objects tasks.
Up until very recently, most robotic systems that performed mapping or Simultaneous
Localization And Mapping (SLAM) tasks, used devices like laser rangefinders
and stereo cameras. These devices, in addition to being expensive, only provide,
in the case of rangefinders, two-dimensional information collected through
2D cross-sections.
The paradigm of this type of technology, shifted considerably, with the market
launch of RGB-D cameras, developed by PrimeSenseTM and the subsequent launch
of the Kinect, by Microsoft
R for the XBox 360, in the late 2010. The depth sensor
quality, given the low cost nature and its capability for real time data acquisition,
is unavoidable, causing the sensor to become instantaneously popular among researchers
and enthusiasts.
This technological breakthrough has led to several development and human interaction
tools with this sensor type, like the Point Cloud Library [RC11] (PCL). This
framework aims to provide support for all the common building blocks that a 3D
application needs, giving special emphasis to the processing of point clouds of n
dimensions obtained from RGB-D cameras, laser scanners, as well as Time-of-Flight
cameras or stereo cameras.
In this context, is performed in this dissertation, the evaluation and comparison
of some of the modules and methods that constitute the PCL library, for the resolution of inherent problems to the building and interpretation of maps, in unstructured
indoor environments, using the Kinect data.
From this assessment, it is proposed a system architecture that systematizes
point clouds registration, corresponding to partial world viewpoints, in a consistent
global model.
The evaluation results, performed to the PCL library, attest its viability for the
solving of the proposed problems. Proof of their viability, are the obtained practical
results obtained, from the implementation of the proposed system architecture,
which presents interesting performance results, as well as a good prospects of integrating
this type of technology and concepts in robotic platforms developed in the
Laboratório de Sistemas Autónomos (LSA) scope.