https://repositorio.ufba.br/handle/ri/42335| Tipo: | Tese |
| Título: | From build-up to solid foundations: exploring deep learning for classifying dental conditions on panoramic radiographs. |
| Título(s) alternativo(s): | Da construção a bases sólidas: explorando o aprendizado profundo para classificar condições dentárias em radiografias panorâmicas. |
| Autor(es): | Silva, Bernardo Peters Menezes |
| Primeiro Orientador: | Oliveira, Luciano Rebouças de |
| metadata.dc.contributor.advisor-co1: | Cury, Patrícia Ramos |
| metadata.dc.contributor.referee1: | Oliveria, Luciano Rebouças de |
| metadata.dc.contributor.referee2: | Xavier, Flavia Calo de Aquino |
| metadata.dc.contributor.referee3: | Papa, João Paulo |
| metadata.dc.contributor.referee4: | Santos, Thiago Oliveira dos |
| metadata.dc.contributor.referee5: | Veras, Rodrigo de Melo Souza |
| Resumo: | As radiografias panorâmicas dentárias são exames bastante versáteis. Elas podem ser utilizadas para diagnosticar perda óssea periodontal, lesões ósseas, cistos e tumores, além de estimar a idade e o sexo biológico do paciente. Os trabalhos que aplicam deep learning para determinar esses atributos em radiografias panorâmicas baseiam-se em abordagens supervisionadas que exigem a anotação manual de cada condição considerada. No entanto, a anotação manual dessas radiografias é exigente, pois demanda mão de obra qualificada, sendo, consequentemente, cara. Este trabalho buscou superar essa dificuldade ao explorar o conceito de Human-in-the-Loop. Para atingir esse objetivo, deu-se ênfase especial aos dentes, por serem os principais pontos de referência para os radiologistas interpretarem radiografias panorâmicas. Como resultado, foi produzido um conjunto de dados contendo 4.000 imagens de segmentação por instância de dentes em radiografias panorâmicas: o conjunto O²PR. Os demais dados do trabalho incluem 4.795 radiografias no conjunto Raw Panoramic Radiographs (RPR), com imagens em formato bruto, e o conjunto Textual Report Panoramic Radiographs (TRPR), contendo 8.029 pares de imagens de radiografias e laudos. Com base nesses conjuntos, classificamos treze condições dentárias presentes nos dentes ou em seus arredores. Para tanto, foi necessária uma abordagem holística. Primeiro, utilizamos as radiografias anotadas do conjunto O²PR para treinar uma rede neural de segmentação de instâncias, a fim de pseudo-rotular os dentes nas radiografias não anotadas. Em seguida, recortes de todos os dentes foram feitos para permitir a classificação das condições dentárias. Os recortes de dentes das imagens sem laudos foram usados para pré-treinar Vision Transformers, que posteriormente foram utilizados como classificadores das condições dentárias, por meio da técnica de Masked Autoencoders. O procedimento de extração de rótulos utilizou um Grande Modelo de Linguagem, o GPT-4, para reduzir a necessidade de rotulagem manual das condições dentárias. Seu uso tinha como objetivo identificar os sintagmas nominais nos laudos para encontrar as condições dentárias. Em seguida, uma heurística associou cada dente mencionado nas sentenças dos laudos a todas as condições dentárias presentes na mesma sentença. Aproveitamos Vision Transformers pré-treinados para criar vários modelos de classificação de condições dentárias. De forma encorajadora, os resultados consistentemente atingiram ou superaram as métricas de referência para o coeficiente de correlação de Matthews. A comparação da solução proposta com profissionais humanos, respaldada por análise estatística, destacou sua eficácia e suas limitações. Com base no grau de concordância entre especialistas, a solução demonstrou um nível de precisão comparável ao de um especialista júnior. |
| Abstract: | Panoramic dental radiographs are highly versatile exams. They can be used to diagnose periodontal bone loss and lesions, cysts, and tumors, as well as to estimate the patient's age and biological sex. Studies that apply deep learning to determine these attributes in panoramic radiographs rely on supervised approaches that require manual annotation of each considered condition. However, manually annotating these radiographs is demanding, as it requires skilled labor and is, consequently, costly. This study aimed to overcome this challenge by exploring the concept of Human-in-the-Loop. To achieve this goal, special emphasis was placed on teeth, as they are the main reference points for radiologists interpreting panoramic radiographs. As a result, a dataset containing 4,000 instance segmentation images of teeth in panoramic radiographs was created: the O$^2$PR dataset. The other data used in this study include 4,795 radiographs in the Raw Panoramic Radiographs (RPR) dataset, with raw-format images, and the Textual Report Panoramic Radiographs (TRPR) dataset, containing 8,029 pairs of radiographic images and textual reports. Based on these datasets, we classified thirteen dental conditions present in the teeth or their surroundings. To do so, a holistic approach was necessary. First, we used the annotated radiographs from the O$^2$PR dataset to train an instance segmentation neural network to pseudo-label the teeth in unannotated radiographs. Next, we extracted crops of all teeth to enable the classification of dental conditions. The tooth crops from images without textual reports were used to pre-train Vision Transformers, which were later used as classifiers for dental conditions, through the Masked Autoencoders technique. The label extraction procedure employed a Large Language Model, GPT-4, to reduce the need for manual labeling of dental conditions. Its purpose was to identify noun phrases in the textual reports to find dental conditions. Then, a heuristic associated each tooth mentioned in the report sentences with all dental conditions present in the same sentence. We leveraged pre-trained Vision Transformers to create multiple models for dental condition classification. Encouragingly, the results consistently met or exceeded the benchmark metrics for the Matthews correlation coefficient. The comparison of the proposed solution with human professionals, supported by statistical analysis, highlighted its effectiveness and limitations. Based on the degree of agreement among specialists, the solution demonstrated a level of accuracy comparable to that of a junior specialist. |
| Palavras-chave: | Deep learning Radiografias panorâmicas dentárias Modelos de segmentação por instância Grande modelos de linguagem |
| CNPq: | CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
| Idioma: | eng |
| País: | Brasil |
| Editora / Evento / Instituição: | Universidade Federal da Bahia |
| Sigla da Instituição: | UFBA |
| metadata.dc.publisher.department: | Instituto de Computação - IC |
| metadata.dc.publisher.program: | Programa de Pós-Graduação em Ciência da Computação (PGCOMP) |
| Citação: | SILVA, Bernardo Peters Menezes. From build-up to solid foundations: exploring deep learning for classifying dental conditions on panoramic radiographs.. 2024. 112 f. Tese (Doutorado em Ciência da Computação) - Instituto de Computação, Universidade Federal da Bahia, Salvador (Bahia), 2024. |
| Tipo de Acesso: | Acesso Aberto |
| URI: | https://repositorio.ufba.br/handle/ri/42335 |
| Data do documento: | 13-Nov-2024 |
| Aparece nas coleções: | Tese (PGCOMP) |
| Arquivo | Descrição | Tamanho | Formato | |
|---|---|---|---|---|
| output-right.pdf | 19,05 MB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.