Use este identificador para citar ou linkar para este item: https://repositorio.ufba.br/handle/ri/39437
Tipo: Tese
Título: A fast selective grasping algorithm with deep learning and autonomous dataset creation on point cloud
Autor(es): Oliveira, Daniel Moura de
Primeiro Orientador: Conceição, André Gustavo Scolari
metadata.dc.contributor.referee1: Conceição, André Gustavo Scolari
metadata.dc.contributor.referee2: Ribeiro, Tiago Trindade
metadata.dc.contributor.referee3: Farias, Paulo César Machado de Abreu
metadata.dc.contributor.referee4: Braga, Rodrigo de Antônio Marques
metadata.dc.contributor.referee5: Alsina, Pablo Javier
Resumo: Preensão de objetos apresenta desafio de diversos tipos, devido a variação de forma, perspectiva, material, rugosidade e a condições do ambiente, fazendo da preensão uma tarefa complexa. Esse trabalho apresenta um algoritmo feito para lidar com esses problemas utilizando nuvem de pontos devido a sua melhor noção de profundidade e geometria do objeto em comparação a imagens RGB. O algoritmo proposto utiliza primitivas geométricas e curvaturas laterais para identificar o melhor local para se pegar um objeto de forma rápida e eficiente, onde somente a geometria do objeto é considerada para fazer a análise. Para garantir a seleção de objetos de desejo para se realizar a preensão, uma rede neural de classificação, chamada de Point Encode Convolution (PEC), foi desenvolvida. A rede foi feita para ser utilizada em nuvem de pontos de sensor RGB-D e possui tempo baixo de execução e treinamento. Esse design flexível permite que a rede seja treinada e retreinada de forma eficiente, sendo facilmente adaptável para diversos grupos de objetos. Para auxiliar no processo de treinamento, um método de geração de datasets de forma autônoma foi proposto. Este método elimina a necessidade de anotação manual e é feito em um ambiente de simulação, como o Isaac Sim ou outro simulador que possua a opção de manipular objetos por script. A validação de ambos os algoritmos, de forma individual e em conjunto, foi conduzida em dois sistemas. O primeiro sistema integra o algoritmo de preensão com uma rede neural capaz de detectar objetos e estimar a pose em 6D. A validação inicial foi feita em ambiente simulado do Gazebo e Webots, onde o Gazebo foi utilizado para validação visual e o Webots para validar a preensão devido a sua melhor física sem a necessidade de plugins externos. Entretanto, devido a certas limitações das redes de detecção de objetos e estimação de pose em 6D, a rede foi excluída na execução da validação experimental. Já o segundo sistema, combina ambos os algoritmos para execução de tarefas em preensão seletiva. A validação experimental é conduzida usando um manipulador robótico UR5, o sensor visual RGB-D Intel Realsense D435 e uma garra Robotiq 2F-140. A rede neural proposta atingiu uma acurácia de 92.24% em um dataset de uso público, enquanto isso, o algoritmo de preensão atingiu uma média de 94% de sucesso em tarefas de preensão. O tempo de execução de ambos os algoritmos está por volta de 0.002 segundos cada.
Abstract: Grasping objects presents a multifaceted challenge influenced by variations in shape, perspective, material, roughness, and environmental conditions, making it a complex task. This research introduces an algorithm designed to address these challenges by employing point clouds since they allow a better notion of depth and geometry than RGB images. The proposed algorithm leverages geometric primitive estimation and lateral curvatures to identify optimal grasping regions swiftly and efficiently, where only the object geometry is used to analyze where to grasp. To ensure the selection of desirable objects within the environment and to avoid undesirable ones, a purpose-built neural network, Point Encode Convolution (PEC), is introduced. PEC is tailored to utilize point clouds from RGB-D sensors and offers rapid execution and training times. The proposed design allows for efficient training and retraining, making it adaptable to diverse sets of objects. To expedite the training process, an autonomous dataset generation method is proposed. This method eliminates the need for manual annotation by autonomously generating data, and training is conducted within a simulation environment, such as Isaac Sim or any other simulation that allows object manipulation through scripts. Validation of both algorithms, individually and in tandem, is conducted through the implementation of two grasp systems. The first system integrates the grasping algorithm with a neural network capable of object detection and 6D pose estimation. Initial validation occurs within the Webots and Gazebo simulations, where Gazebo was used for the visual validation and Webots for grasp validation due to its better physics handling without needing external plugins. However, due to certain limitations, the network component is excluded from subsequent experimental validation. The second system features the grasping algorithm with the neural network to be used on selective object grasping tasks. Experimental validation is carried out using a UR5 robotic manipulator, an Intel RealSense D435 visual sensor, and a Robotiq 2F-140 gripper. The proposed neural network achieves a classification accuracy of 92.24% on a publicly available dataset. Meanwhile, the grasping algorithm attains an average success rate of 94% across all tested objects. The execution time of both algorithms is around 0.002 seconds each.
Palavras-chave: Manipulador Robotico
Nuvem de Pontos
Aprendizado Profundo
Preensão
Visão computacional
CNPq: CNPQ::ENGENHARIAS::ENGENHARIA ELETRICA::ELETRONICA INDUSTRIAL, SISTEMAS E CONTROLES ELETRONICOS::AUTOMACAO ELETRONICA DE PROCESSOS ELETRICOS E INDUSTRIAIS
Idioma: eng
País: Brasil
Editora / Evento / Instituição: Universidade Federal da Bahia
Sigla da Instituição: UFBA
metadata.dc.publisher.department: Escola Politécnica
metadata.dc.publisher.program: Programa de Pós-Graduação em Engenharia Elétrica (PPGEE) 
Tipo de Acesso: Acesso Aberto
URI: https://repositorio.ufba.br/handle/ri/39437
Data do documento: 19-Mai-2024
Aparece nas coleções:Tese (PPGEE)

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
DanielOliveira-tese_final.pdf83,39 MBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.