Use este identificador para citar ou linkar para este item: https://repositorio.ufba.br/handle/ri/37993
Registro completo de metadados
Campo DCValorIdioma
dc.creatorSantos, Marcelo Mendonça dos-
dc.date.accessioned2023-10-06T12:45:48Z-
dc.date.available2023-10-06T12:45:48Z-
dc.date.issued2023-06-09-
dc.identifier.urihttps://repositorio.ufba.br/handle/ri/37993-
dc.description.abstractVideo object segmentation (VOS) is a complex computer vision task that involves identifying and separating the pixels in a video sequence based on regions, which can be either the background or foreground of the scene, or even specific objects within it. The task must be accomplished consistently throughout the sequence, ensuring that the same object or region receives the same label in all frames. Recent advances in deep learning techniques and high-definition datasets have led to significant progress in the VOS area. Modern methods can handle complex video scenarios, including multiple objects moving over dynamic backgrounds. However, these methods rely heavily on manually annotated datasets, which can be expensive and time-consuming to create. Alternatively, self-supervised methods have been proposed to eliminate the need for manual annotations during training. These methods utilize intrinsic properties of videos, such as the temporal coherence between frames, to generate a supervisory signal for training without human intervention. The downside is that self-supervised methods often demand extensive training data to effectively learn the VOS task without supervision. In this work, we propose Superfeatures in a Highly Compressed Latent Space (SHLS), a novel self-supervised VOS method that dispenses manual annotations while reducing substantially the demand for training data. Using a metric learning approach, SHLS combines superpixels and deep learning features, enabling us to learn the VOS task from a small dataset of unlabeled still images. Our solution is built upon Iterative over-Segmentation via Edge Clustering (ISEC), our efficient superpixel method that provides the same level of segmentation accuracy as top-performing superpixel algorithms while generating significantly fewer superpixels. This is especially useful for processing videos, where the number of pixels increases over time. Our proposed SHLS embeds convolutional features from the frame pixels into the corresponding superpixel areas, resulting in ultra-compact image representations called superfeatures. The superfeatures comprise a latent space where object information is efficiently stored, retrieved, and classified throughout the frame sequence. We conduct a series of experiments on the most popular VOS datasets and observe competitive results. Compared to state-of-the-art self-supervised methods, SHLS achieves the best performance on the single-object segmentation test of the DAVIS-2016 dataset and ranks in the top five on the DAVIS-2017 multi-object test. Remarkably, our method was trained with only 10,000 still images, outstanding from the other self-supervised methods, which require much larger video-based datasets. Overall, our proposed method represents a significant advancement in self-supervised VOS, offering an efficient and effective alternative to manual annotations and significantly reducing the demand for training data.pt_BR
dc.languageengpt_BR
dc.publisherUniversidade Federal da Bahiapt_BR
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 Brazil*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/br/*
dc.subjectSegmentação de objetos em vídeopt_BR
dc.subjectSegmentação por superpixelspt_BR
dc.subjectRedes neurais convolucionaispt_BR
dc.subject.otherVideo object segmentationpt_BR
dc.subject.otherSuperpixel segmentationpt_BR
dc.subject.otherConvolutional neural networkspt_BR
dc.titleIntroducing a self-supervised, superfeature-based network for Video object segmentationpt_BR
dc.typeTesept_BR
dc.publisher.programPrograma de Pós-Graduação em Mecatrônica da UFBA (PPGM) pt_BR
dc.publisher.initialsUFBApt_BR
dc.publisher.countryBrasilpt_BR
dc.subject.cnpqCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::SISTEMAS DE COMPUTACAO::ARQUITETURA DE SISTEMAS DE COMPUTACAOpt_BR
dc.contributor.advisor1Oliveira, Luciano Rebouças de-
dc.contributor.advisor1IDhttps://orcid.org/0000-0001-7183-8853pt_BR
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/0372650483087124pt_BR
dc.contributor.referee1Oliveira, Luciano Rebouças de-
dc.contributor.referee1IDhttps://orcid.org/0000-0001-7183-8853pt_BR
dc.contributor.referee1Latteshttp://lattes.cnpq.br/5034444360451621pt_BR
dc.contributor.referee2Luz, Eduardo José da Silva-
dc.contributor.referee2Latteshttp://lattes.cnpq.br/5034444360451621pt_BR
dc.contributor.referee3Moreira, Gladston Juliano Prates-
dc.contributor.referee3Latteshttp://lattes.cnpq.br/5034444360451621pt_BR
dc.contributor.referee4Santos, Thiago Oliveira dos-
dc.contributor.referee4Latteshttp://lattes.cnpq.br/5034444360451621pt_BR
dc.contributor.referee5Calumby, Rodrigo Tripodi-
dc.contributor.referee5Latteshttp://lattes.cnpq.br/5034444360451621pt_BR
dc.creator.IDhttps://orcid.org/0000-0002-0404-2158pt_BR
dc.creator.Latteshttp://lattes.cnpq.br/4271397173667661pt_BR
dc.description.resumoA segmentação de objetos em vídeo (VOS) é uma tarefa complexa de visão computacional que envolve a identificação e separação de pixels em uma sequência de vídeo com base em regiões, que podem ser o plano de fundo ou primeiro plano, ou mesmo objetos específicos dentro da cena. A tarefa deve ser realizada de forma consistente ao longo da sequência, garantindo que o mesmo objeto ou região receba o mesmo rótulo em todos os quadros. Avanços recentes em técnicas de aprendizado profundo e datasets de alta definição tem levado a avanços significativos na área de VOS. Métodos modernos podem lidar com cenários de vídeo complexos, incluindo múltiplos objetos em movimento em fundos dinâmicos. No entanto, esses métodos são altamente dependentes de datasets anotados manualmente, que podem ser caros e demorados para serem criados. Alternativamente, métodos auto-supervisionados têm sido propostos para eliminar a necessidade de anotações manuais durante o treinamento. Esses métodos utilizam propriedades intrínsecas de vídeos, como a coerência temporal entre quadros, para gerar um sinal de supervisão para o treinamento sem intervenção humana. A desvantagem é que os métodos auto-supervisionados muitas vezes exigem extensos datasets de treinamento para aprender efetivamente a tarefa de VOS sem supervisão. Neste trabalho, propomos Superfeatures in a Highly Compressed Latent Space (SHLS), um novo método de VOS auto-supervisionado que dispensa anotações manuais e reduz substancialmente a demanda por dados de treinamento. Usando uma abordagem de aprendizado de métrica, o SHLS combina superpixels e recursos de aprendizado profundo, permitindo-nos aprender a tarefa de VOS a partir de um pequeno datasets de imagens estáticas não rotuladas. Nossa solução é construída sobre Iterative over-Segmentation via Edge Clustering (ISEC), nosso eficiente método de superpixels que fornece o mesmo nível de precisão de segmentação que os principais algoritmos de superpixels, enquanto gera significativamente menos superpixels. Isso é especialmente útil para o processamento de vídeos, onde o número de pixels aumenta ao longo do tempo. Nosso método SHLS incorpora features convolucionais dos pixels nas áreas dos superpixels correspondentes, resultando em representações de imagem ultra-compactas chamadas de superfeatures. As superfeatures compõem um espaço latente onde as informações do objeto são armazenadas, recuperadas e classificadas de forma eficiente ao longo da sequência de quadros. Realizamos uma série de experimentos nos datasets de VOS mais populares e observamos resultados competitivos. Comparado aos métodos auto-supervisionados do estado-da-arte, o SHLS alcança a melhor performance no teste de segmentação de objeto único do dataset DAVIS-2016 e ocupa uma das cinco melhores posições no teste de multi-objetos do DAVIS-2017. Notavelmente, nosso método foi treinado com apenas 10.000 imagens estáticas, destacando-se dos outros métodos auto-supervisionados, que exigem datasets de vídeo muito maiores. De modo geral, nosso método proposto representa um avanço significativo na segmentação de objetos em vídeo auto-supervisionada, oferecendo uma alternativa eficiente e eficaz às anotações manuais e reduzindo significativamente a demanda por dados de treinamento.pt_BR
dc.publisher.departmentInstituto de Computação - ICpt_BR
dc.type.degreeDoutoradopt_BR
Aparece nas coleções:Tese (PPGM)

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
my_thesis_VH_impressao.pdf29,42 MBAdobe PDFVisualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons