Por favor, use este identificador para citar o enlazar este ítem: https://repositorio.ufba.br/handle/ri/38854
metadata.dc.type: Trabalho de Conclusão de Curso
Título : Segmentação de trajetórias de frequência fundamental e associação de vozes para transcrição de performances musicais de quartetos a cappella
Otros títulos : Segmentation of F0 trajectories and voice assignment for transcription of vocal quartets musical performances
metadata.dc.creator: Rodrigues, André Paiva Conrado
metadata.dc.contributor.advisor1: Fernandes Junior, Antônio Carlos Lopes
metadata.dc.contributor.referee1: Farias, Paulo César Machado de Abreu
metadata.dc.contributor.referee2: Simas Filho, Eduardo Furtado
metadata.dc.description.resumo: Nos últimos anos, várias pesquisas tem sido desenvolvidas na área de transcrição automatizada de música; no entanto, poucas destas pesquisas focam no gênero a cappella, e os conjuntos de dados específicos para este gênero são escassos. Recentemente, alguns artigos foram produzidos para propor arquiteturas de aprendizado de máquina para extração de notas musicais cantadas por coros. Este trabalho é resultado de experimentos conduzidos com base em publicações recentes, as quais focam na extração de notas musicais individuais de cada voz a partir de gravações de áudio de quartetos vocais. Foram efetuadas modificações de arquiteturas de redes neurais para associação de vozes, conseguindo resultados relativamente melhores com menor custo computacional. O resultado da arquitetura com melhor desempenho foi integrado a um sistema completo que recebe um arquivo de áudio na entrada e retorna as transcrições individuais como saída; tal resultado foi disponibilizado em forma de aplicação web acessível pelo público geral.
Resumen : In recent years, several researches about automated music transcription have been conducted; however, only a few are dedicated to the a cappella musical style, and specific datasets to this style are scarce. Recently, some articles have been published proposing machine learning approaches to extract musical notes sung by choirs. This work is the result of experiments conducted based on publications focused on extracting individual musical notes for each voice from vocal quartets audio recordings. Modifications were made to neural network architectures for voice assignment, achieving relatively better results with lower computational cost. The resulting best-performing model was integrated into a complete system that takes an audio file as input and returns individual transcriptions as output; this result was made available for use in a web application accessible to the general public.
Palabras clave : Transcrição de Música
Associação de Vozes
Estimativa Multipitch
Processamento Digital de Sinais
Aprendizagem Profunda
MIR (Recuperação de Informação Musical)
metadata.dc.subject.cnpq: CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::SISTEMAS DE COMPUTACAO
metadata.dc.language: por
metadata.dc.publisher.country: Brasil
Editorial : Universidade Federal da Bahia
metadata.dc.publisher.initials: UFBA
metadata.dc.publisher.department: Escola Politécnica
URI : https://repositorio.ufba.br/handle/ri/38854
Fecha de publicación : 13-dic-2023
Aparece en las colecciones: Trabalho de Conclusão de Curso (Graduação) - Engenharia da Computação (Escola Politécnica)

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
Andre_P_C_Rodrigues_Segmentacao_F0_Quartetos_A_Cappella.pdfMonografia19,24 MBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.