Use este identificador para citar ou linkar para este item: https://repositorio.ufba.br/handle/ri/39437
Registro completo de metadados
Campo DCValorIdioma
dc.creatorOliveira, Daniel Moura de-
dc.date.accessioned2024-06-19T14:09:51Z-
dc.date.available2024-07-01-
dc.date.available2024-06-19T14:09:51Z-
dc.date.issued2024-05-19-
dc.identifier.urihttps://repositorio.ufba.br/handle/ri/39437-
dc.description.abstractGrasping objects presents a multifaceted challenge influenced by variations in shape, perspective, material, roughness, and environmental conditions, making it a complex task. This research introduces an algorithm designed to address these challenges by employing point clouds since they allow a better notion of depth and geometry than RGB images. The proposed algorithm leverages geometric primitive estimation and lateral curvatures to identify optimal grasping regions swiftly and efficiently, where only the object geometry is used to analyze where to grasp. To ensure the selection of desirable objects within the environment and to avoid undesirable ones, a purpose-built neural network, Point Encode Convolution (PEC), is introduced. PEC is tailored to utilize point clouds from RGB-D sensors and offers rapid execution and training times. The proposed design allows for efficient training and retraining, making it adaptable to diverse sets of objects. To expedite the training process, an autonomous dataset generation method is proposed. This method eliminates the need for manual annotation by autonomously generating data, and training is conducted within a simulation environment, such as Isaac Sim or any other simulation that allows object manipulation through scripts. Validation of both algorithms, individually and in tandem, is conducted through the implementation of two grasp systems. The first system integrates the grasping algorithm with a neural network capable of object detection and 6D pose estimation. Initial validation occurs within the Webots and Gazebo simulations, where Gazebo was used for the visual validation and Webots for grasp validation due to its better physics handling without needing external plugins. However, due to certain limitations, the network component is excluded from subsequent experimental validation. The second system features the grasping algorithm with the neural network to be used on selective object grasping tasks. Experimental validation is carried out using a UR5 robotic manipulator, an Intel RealSense D435 visual sensor, and a Robotiq 2F-140 gripper. The proposed neural network achieves a classification accuracy of 92.24% on a publicly available dataset. Meanwhile, the grasping algorithm attains an average success rate of 94% across all tested objects. The execution time of both algorithms is around 0.002 seconds each.pt_BR
dc.languageengpt_BR
dc.publisherUniversidade Federal da Bahiapt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectManipulador Roboticopt_BR
dc.subjectNuvem de Pontospt_BR
dc.subjectAprendizado Profundopt_BR
dc.subjectPreensãopt_BR
dc.subjectVisão computacionalpt_BR
dc.subject.otherRobotic Manipulatorpt_BR
dc.subject.otherPoint Cloudpt_BR
dc.subject.otherDeep Learningpt_BR
dc.subject.otherGraspingpt_BR
dc.subject.otherComputer Visionpt_BR
dc.titleA fast selective grasping algorithm with deep learning and autonomous dataset creation on point cloudpt_BR
dc.typeTesept_BR
dc.publisher.programPrograma de Pós-Graduação em Engenharia Elétrica (PPGEE) pt_BR
dc.publisher.initialsUFBApt_BR
dc.publisher.countryBrasilpt_BR
dc.subject.cnpqCNPQ::ENGENHARIAS::ENGENHARIA ELETRICA::ELETRONICA INDUSTRIAL, SISTEMAS E CONTROLES ELETRONICOS::AUTOMACAO ELETRONICA DE PROCESSOS ELETRICOS E INDUSTRIAISpt_BR
dc.contributor.advisor1Conceição, André Gustavo Scolari-
dc.contributor.referee1Conceição, André Gustavo Scolari-
dc.contributor.referee2Ribeiro, Tiago Trindade-
dc.contributor.referee3Farias, Paulo César Machado de Abreu-
dc.contributor.referee4Braga, Rodrigo de Antônio Marques-
dc.contributor.referee5Alsina, Pablo Javier-
dc.creator.Latteshttp://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4899248J0&tokenCaptchar=03AFcWeA7wGQ6RYASyXdhGIAHN_YbtnQrXxGcUHwz8OEgGhtTfjyoghGjqEjq9h2ARnZh971Bpl39DcxqcjDBKB99nwMo_8SudbVmOX4yUUr5P5c3-DzwA_duF1XuG-3ltkGpVPIkTyGYTMrVqwIhNdFcV3QDv25wCeEVbOxjysuQPeZG4WzNi4I_SYfJ38dDU4lkNuusGhaFcS-HdXmCLSvgRB2z1375PolJ9_xXqFKUZUSN7p4dH1yh68VunZriHM_zUugll6mcKJv9t6-RgnFt7zQERHX97AIKoS6PMLW6gQJK0shlNbY-IXNY70YF1hpGfWwbFOM8K-TiaA5L-sGKFLemtwEZSaHxYDkfgLk90q5PoefRD7eQ_F8qLliVh5pNFeqdMD3jRGaIT1TKxcATcUv7SlubnMhHooV6CaghnuibyQtwY2Kq5uWRNAvFMGpW6XGxnOPoYQ1M2gIBRoHlStM6mgBMIl-3ftP7L5kuG-GeZrYhBuYbumuRtG3IJmzxjz0dElJfOnwEhvyli_MKnSvQJUD5uFIH_yQbK2AfNezHYUirPrb1Z7tLDWJTggjFBm13cN5txalzKdzSJEoUZcnPKW8fF7WRGlzT5Urp1OLwTkRNw1T7rwvJjnPVfVS4NCdH7YvoRkDgZ7tSmm1HH0-mMFgEg8dXwZNFihG9As9P_aCokEacpt_BR
dc.description.resumoPreensão de objetos apresenta desafio de diversos tipos, devido a variação de forma, perspectiva, material, rugosidade e a condições do ambiente, fazendo da preensão uma tarefa complexa. Esse trabalho apresenta um algoritmo feito para lidar com esses problemas utilizando nuvem de pontos devido a sua melhor noção de profundidade e geometria do objeto em comparação a imagens RGB. O algoritmo proposto utiliza primitivas geométricas e curvaturas laterais para identificar o melhor local para se pegar um objeto de forma rápida e eficiente, onde somente a geometria do objeto é considerada para fazer a análise. Para garantir a seleção de objetos de desejo para se realizar a preensão, uma rede neural de classificação, chamada de Point Encode Convolution (PEC), foi desenvolvida. A rede foi feita para ser utilizada em nuvem de pontos de sensor RGB-D e possui tempo baixo de execução e treinamento. Esse design flexível permite que a rede seja treinada e retreinada de forma eficiente, sendo facilmente adaptável para diversos grupos de objetos. Para auxiliar no processo de treinamento, um método de geração de datasets de forma autônoma foi proposto. Este método elimina a necessidade de anotação manual e é feito em um ambiente de simulação, como o Isaac Sim ou outro simulador que possua a opção de manipular objetos por script. A validação de ambos os algoritmos, de forma individual e em conjunto, foi conduzida em dois sistemas. O primeiro sistema integra o algoritmo de preensão com uma rede neural capaz de detectar objetos e estimar a pose em 6D. A validação inicial foi feita em ambiente simulado do Gazebo e Webots, onde o Gazebo foi utilizado para validação visual e o Webots para validar a preensão devido a sua melhor física sem a necessidade de plugins externos. Entretanto, devido a certas limitações das redes de detecção de objetos e estimação de pose em 6D, a rede foi excluída na execução da validação experimental. Já o segundo sistema, combina ambos os algoritmos para execução de tarefas em preensão seletiva. A validação experimental é conduzida usando um manipulador robótico UR5, o sensor visual RGB-D Intel Realsense D435 e uma garra Robotiq 2F-140. A rede neural proposta atingiu uma acurácia de 92.24% em um dataset de uso público, enquanto isso, o algoritmo de preensão atingiu uma média de 94% de sucesso em tarefas de preensão. O tempo de execução de ambos os algoritmos está por volta de 0.002 segundos cada.pt_BR
dc.publisher.departmentEscola Politécnicapt_BR
dc.type.degreeDoutoradopt_BR
Aparece nas coleções:Tese (PPGEE)

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
DanielOliveira-tese_final.pdf83,39 MBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.