Skip navigation
Universidade Federal da Bahia |
Repositório Institucional da UFBA
Use este identificador para citar ou linkar para este item: https://repositorio.ufba.br/handle/ri/42335
Tipo: Tese
Título: From build-up to solid foundations: exploring deep learning for classifying dental conditions on panoramic radiographs.
Título(s) alternativo(s): Da construção a bases sólidas: explorando o aprendizado profundo para classificar condições dentárias em radiografias panorâmicas.
Autor(es): Silva, Bernardo Peters Menezes
Primeiro Orientador: Oliveira, Luciano Rebouças de
metadata.dc.contributor.advisor-co1: Cury, Patrícia Ramos
metadata.dc.contributor.referee1: Oliveria, Luciano Rebouças de
metadata.dc.contributor.referee2: Xavier, Flavia Calo de Aquino
metadata.dc.contributor.referee3: Papa, João Paulo
metadata.dc.contributor.referee4: Santos, Thiago Oliveira dos
metadata.dc.contributor.referee5: Veras, Rodrigo de Melo Souza
Resumo: As radiografias panorâmicas dentárias são exames bastante versáteis. Elas podem ser utilizadas para diagnosticar perda óssea periodontal, lesões ósseas, cistos e tumores, além de estimar a idade e o sexo biológico do paciente. Os trabalhos que aplicam deep learning para determinar esses atributos em radiografias panorâmicas baseiam-se em abordagens supervisionadas que exigem a anotação manual de cada condição considerada. No entanto, a anotação manual dessas radiografias é exigente, pois demanda mão de obra qualificada, sendo, consequentemente, cara. Este trabalho buscou superar essa dificuldade ao explorar o conceito de Human-in-the-Loop. Para atingir esse objetivo, deu-se ênfase especial aos dentes, por serem os principais pontos de referência para os radiologistas interpretarem radiografias panorâmicas. Como resultado, foi produzido um conjunto de dados contendo 4.000 imagens de segmentação por instância de dentes em radiografias panorâmicas: o conjunto O²PR. Os demais dados do trabalho incluem 4.795 radiografias no conjunto Raw Panoramic Radiographs (RPR), com imagens em formato bruto, e o conjunto Textual Report Panoramic Radiographs (TRPR), contendo 8.029 pares de imagens de radiografias e laudos. Com base nesses conjuntos, classificamos treze condições dentárias presentes nos dentes ou em seus arredores. Para tanto, foi necessária uma abordagem holística. Primeiro, utilizamos as radiografias anotadas do conjunto O²PR para treinar uma rede neural de segmentação de instâncias, a fim de pseudo-rotular os dentes nas radiografias não anotadas. Em seguida, recortes de todos os dentes foram feitos para permitir a classificação das condições dentárias. Os recortes de dentes das imagens sem laudos foram usados para pré-treinar Vision Transformers, que posteriormente foram utilizados como classificadores das condições dentárias, por meio da técnica de Masked Autoencoders. O procedimento de extração de rótulos utilizou um Grande Modelo de Linguagem, o GPT-4, para reduzir a necessidade de rotulagem manual das condições dentárias. Seu uso tinha como objetivo identificar os sintagmas nominais nos laudos para encontrar as condições dentárias. Em seguida, uma heurística associou cada dente mencionado nas sentenças dos laudos a todas as condições dentárias presentes na mesma sentença. Aproveitamos Vision Transformers pré-treinados para criar vários modelos de classificação de condições dentárias. De forma encorajadora, os resultados consistentemente atingiram ou superaram as métricas de referência para o coeficiente de correlação de Matthews. A comparação da solução proposta com profissionais humanos, respaldada por análise estatística, destacou sua eficácia e suas limitações. Com base no grau de concordância entre especialistas, a solução demonstrou um nível de precisão comparável ao de um especialista júnior.
Abstract: Panoramic dental radiographs are highly versatile exams. They can be used to diagnose periodontal bone loss and lesions, cysts, and tumors, as well as to estimate the patient's age and biological sex. Studies that apply deep learning to determine these attributes in panoramic radiographs rely on supervised approaches that require manual annotation of each considered condition. However, manually annotating these radiographs is demanding, as it requires skilled labor and is, consequently, costly. This study aimed to overcome this challenge by exploring the concept of Human-in-the-Loop. To achieve this goal, special emphasis was placed on teeth, as they are the main reference points for radiologists interpreting panoramic radiographs. As a result, a dataset containing 4,000 instance segmentation images of teeth in panoramic radiographs was created: the O$^2$PR dataset. The other data used in this study include 4,795 radiographs in the Raw Panoramic Radiographs (RPR) dataset, with raw-format images, and the Textual Report Panoramic Radiographs (TRPR) dataset, containing 8,029 pairs of radiographic images and textual reports. Based on these datasets, we classified thirteen dental conditions present in the teeth or their surroundings. To do so, a holistic approach was necessary. First, we used the annotated radiographs from the O$^2$PR dataset to train an instance segmentation neural network to pseudo-label the teeth in unannotated radiographs. Next, we extracted crops of all teeth to enable the classification of dental conditions. The tooth crops from images without textual reports were used to pre-train Vision Transformers, which were later used as classifiers for dental conditions, through the Masked Autoencoders technique. The label extraction procedure employed a Large Language Model, GPT-4, to reduce the need for manual labeling of dental conditions. Its purpose was to identify noun phrases in the textual reports to find dental conditions. Then, a heuristic associated each tooth mentioned in the report sentences with all dental conditions present in the same sentence. We leveraged pre-trained Vision Transformers to create multiple models for dental condition classification. Encouragingly, the results consistently met or exceeded the benchmark metrics for the Matthews correlation coefficient. The comparison of the proposed solution with human professionals, supported by statistical analysis, highlighted its effectiveness and limitations. Based on the degree of agreement among specialists, the solution demonstrated a level of accuracy comparable to that of a junior specialist.
Palavras-chave: Deep learning
Radiografias panorâmicas dentárias
Modelos de segmentação por instância
Grande modelos de linguagem
CNPq: CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
Idioma: eng
País: Brasil
Editora / Evento / Instituição: Universidade Federal da Bahia
Sigla da Instituição: UFBA
metadata.dc.publisher.department: Instituto de Computação - IC
metadata.dc.publisher.program: Programa de Pós-Graduação em Ciência da Computação (PGCOMP) 
Citação: SILVA, Bernardo Peters Menezes. From build-up to solid foundations: exploring deep learning for classifying dental conditions on panoramic radiographs.. 2024. 112 f. Tese (Doutorado em Ciência da Computação) - Instituto de Computação, Universidade Federal da Bahia, Salvador (Bahia), 2024.
Tipo de Acesso: Acesso Aberto
URI: https://repositorio.ufba.br/handle/ri/42335
Data do documento: 13-Nov-2024
Aparece nas coleções:Tese (PGCOMP)

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
output-right.pdf19,05 MBAdobe PDFVisualizar/Abrir
Mostrar registro completo do item Visualizar estatísticas


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.