IA explicável como reforço de treinamento em CNN: uma investigação no contexto de imagens H&E

Detalhes bibliográficos
Autor(a) principal: Sugawara, Igor Kaue Gouveia. [UNESP]
Data de Publicação: 2024
Tipo de documento: Trabalho de conclusão de curso
Idioma: por
Título da fonte: Repositório Institucional da UNESP
Texto Completo: https://hdl.handle.net/11449/261770
Resumo: As redes neurais convolucionais (CNNs) têm se mostrado extremamente eficazes no processamento de imagens nos últimos anos, obtendo excelentes resultados em tarefas de classificação e de segmentação. Este trabalho foi desenvolvido visando explorar a aplicação de CNN integradas ao XAI (Inteligência Artificial Explicável) no processamento de imagens histológicas, sendo este de importância significativa em diversas áreas como a patologia e no diagnóstico médico. Devido à alta complexidade e dimensionalidade das imagens, pode ocorrer uma dificuldade de interpretação e de confiabilidade dos resultados. Para mitigar essas limitações, foram integradas técnicas de interpretabilidade, como regiões explicáveis e mapas de ativação, que identificam as áreas mais relevantes das imagens para as decisões do modelo, e a abordagem de reforço de treinamento, que ajusta iterativamente os pesos da CNN. Embora a integração do XAI não tenha mostrado uma melhora significativa no desempenho quantitativo, como acurácia (98,18%) e loss (0,052), ela proporcionou uma maior compreensão das decisões do modelo ao identificar as regiões das imagens mais relevantes para as classificações. A abordagem de reforço de treinamento também foi explorada, buscando ajustar os pesos da CNN. Esses achados reforçam a importância de técnicas explicáveis para aumentar a confiança no uso de CNNs em áreas críticas como a medicina, onde a interpretabilidade pode ser tão valiosa quanto o desempenho numérico.
id UNSP_85997b879e47d6b1e76a2894d2f9b02c
oai_identifier_str oai:repositorio.unesp.br:11449/261770
network_acronym_str UNSP
network_name_str Repositório Institucional da UNESP
repository_id_str 2946
spelling IA explicável como reforço de treinamento em CNN: uma investigação no contexto de imagens H&EExplainable AI as CNN training reinforcement: an investigation in the context of H&E imagesRedes neurais convolucionaisInteligência artificial explicávelReforço de treinamentoReconhecimento de padrõesMapas de ativaçãoImagens histológicasConvolutional neural networksExplainable artificial intelligenceTraining reinforcementPattern recognitionActivation mappingHistological imagesAs redes neurais convolucionais (CNNs) têm se mostrado extremamente eficazes no processamento de imagens nos últimos anos, obtendo excelentes resultados em tarefas de classificação e de segmentação. Este trabalho foi desenvolvido visando explorar a aplicação de CNN integradas ao XAI (Inteligência Artificial Explicável) no processamento de imagens histológicas, sendo este de importância significativa em diversas áreas como a patologia e no diagnóstico médico. Devido à alta complexidade e dimensionalidade das imagens, pode ocorrer uma dificuldade de interpretação e de confiabilidade dos resultados. Para mitigar essas limitações, foram integradas técnicas de interpretabilidade, como regiões explicáveis e mapas de ativação, que identificam as áreas mais relevantes das imagens para as decisões do modelo, e a abordagem de reforço de treinamento, que ajusta iterativamente os pesos da CNN. Embora a integração do XAI não tenha mostrado uma melhora significativa no desempenho quantitativo, como acurácia (98,18%) e loss (0,052), ela proporcionou uma maior compreensão das decisões do modelo ao identificar as regiões das imagens mais relevantes para as classificações. A abordagem de reforço de treinamento também foi explorada, buscando ajustar os pesos da CNN. Esses achados reforçam a importância de técnicas explicáveis para aumentar a confiança no uso de CNNs em áreas críticas como a medicina, onde a interpretabilidade pode ser tão valiosa quanto o desempenho numérico.Convolutional Neural Networks (CNNs) have proven to be highly effective in image processing tasks in recent years, achieving remarkable results in classification and segmentation. This work explores the application of CNNs integrated with Explaina ble Artificial Intelligence (XAI) in processing histological images, a field of significant importance in areas such as pathology and medical diagnosis. The high comple xity and dimensionality of these images often pose challenges in interpretation and reliability of results. To address these limitations, interpretability techniques were in tegrated, including explainable regions and activation maps, which identify the most relevant areas of the images for the model’s decisions. Additionally, a training rein forcement approach was applied to iteratively adjust the CNN weights. While the in tegration of XAI did not significantly improve quantitative performance metrics, such as accuracy (98.18%) and loss (0.052), it provided greater insight into the model’s decision-making process by highlighting key regions of the images for classification. The training reinforcement strategy further aimed to refine the CNN’s performance. These findings underscore the importance of explainability techniques to enhance trust in CNN applications in critical fields such as medicine, where interpretability can be as valuable as numerical performance.Universidade Estadual Paulista (Unesp)Neves, Leandro Alves [UNESP]Universidade Estadual Paulista (Unesp)Sugawara, Igor Kaue Gouveia. [UNESP]2025-03-07T17:50:33Z2025-03-07T17:50:33Z2024-11-14info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/bachelorThesisapplication/pdfSUGAWARA, Igor Kauê Gouveia. IA explicável como reforço de treinamento em CNN: uma investigação no contexto de imagens H&E. 2024. 47 f. Trabalho de Conclusão de Curso (Bacharelado em Ciência da Computação) – Universidade Estadual Paulista (Unesp), Instituto de Biociências Letras e Ciências Exatas, São José do Rio Preto, São José do Rio Preto, 2024.https://hdl.handle.net/11449/261770porinfo:eu-repo/semantics/openAccessreponame:Repositório Institucional da UNESPinstname:Universidade Estadual Paulista (UNESP)instacron:UNESP2025-06-02T18:36:49Zoai:repositorio.unesp.br:11449/261770Repositório InstitucionalPUBhttp://repositorio.unesp.br/oai/requestrepositoriounesp@unesp.bropendoar:29462025-06-02T18:36:49Repositório Institucional da UNESP - Universidade Estadual Paulista (UNESP)false
dc.title.none.fl_str_mv IA explicável como reforço de treinamento em CNN: uma investigação no contexto de imagens H&E
Explainable AI as CNN training reinforcement: an investigation in the context of H&E images
title IA explicável como reforço de treinamento em CNN: uma investigação no contexto de imagens H&E
spellingShingle IA explicável como reforço de treinamento em CNN: uma investigação no contexto de imagens H&E
Sugawara, Igor Kaue Gouveia. [UNESP]
Redes neurais convolucionais
Inteligência artificial explicável
Reforço de treinamento
Reconhecimento de padrões
Mapas de ativação
Imagens histológicas
Convolutional neural networks
Explainable artificial intelligence
Training reinforcement
Pattern recognition
Activation mapping
Histological images
title_short IA explicável como reforço de treinamento em CNN: uma investigação no contexto de imagens H&E
title_full IA explicável como reforço de treinamento em CNN: uma investigação no contexto de imagens H&E
title_fullStr IA explicável como reforço de treinamento em CNN: uma investigação no contexto de imagens H&E
title_full_unstemmed IA explicável como reforço de treinamento em CNN: uma investigação no contexto de imagens H&E
title_sort IA explicável como reforço de treinamento em CNN: uma investigação no contexto de imagens H&E
author Sugawara, Igor Kaue Gouveia. [UNESP]
author_facet Sugawara, Igor Kaue Gouveia. [UNESP]
author_role author
dc.contributor.none.fl_str_mv Neves, Leandro Alves [UNESP]
Universidade Estadual Paulista (Unesp)
dc.contributor.author.fl_str_mv Sugawara, Igor Kaue Gouveia. [UNESP]
dc.subject.por.fl_str_mv Redes neurais convolucionais
Inteligência artificial explicável
Reforço de treinamento
Reconhecimento de padrões
Mapas de ativação
Imagens histológicas
Convolutional neural networks
Explainable artificial intelligence
Training reinforcement
Pattern recognition
Activation mapping
Histological images
topic Redes neurais convolucionais
Inteligência artificial explicável
Reforço de treinamento
Reconhecimento de padrões
Mapas de ativação
Imagens histológicas
Convolutional neural networks
Explainable artificial intelligence
Training reinforcement
Pattern recognition
Activation mapping
Histological images
description As redes neurais convolucionais (CNNs) têm se mostrado extremamente eficazes no processamento de imagens nos últimos anos, obtendo excelentes resultados em tarefas de classificação e de segmentação. Este trabalho foi desenvolvido visando explorar a aplicação de CNN integradas ao XAI (Inteligência Artificial Explicável) no processamento de imagens histológicas, sendo este de importância significativa em diversas áreas como a patologia e no diagnóstico médico. Devido à alta complexidade e dimensionalidade das imagens, pode ocorrer uma dificuldade de interpretação e de confiabilidade dos resultados. Para mitigar essas limitações, foram integradas técnicas de interpretabilidade, como regiões explicáveis e mapas de ativação, que identificam as áreas mais relevantes das imagens para as decisões do modelo, e a abordagem de reforço de treinamento, que ajusta iterativamente os pesos da CNN. Embora a integração do XAI não tenha mostrado uma melhora significativa no desempenho quantitativo, como acurácia (98,18%) e loss (0,052), ela proporcionou uma maior compreensão das decisões do modelo ao identificar as regiões das imagens mais relevantes para as classificações. A abordagem de reforço de treinamento também foi explorada, buscando ajustar os pesos da CNN. Esses achados reforçam a importância de técnicas explicáveis para aumentar a confiança no uso de CNNs em áreas críticas como a medicina, onde a interpretabilidade pode ser tão valiosa quanto o desempenho numérico.
publishDate 2024
dc.date.none.fl_str_mv 2024-11-14
2025-03-07T17:50:33Z
2025-03-07T17:50:33Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/bachelorThesis
format bachelorThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv SUGAWARA, Igor Kauê Gouveia. IA explicável como reforço de treinamento em CNN: uma investigação no contexto de imagens H&E. 2024. 47 f. Trabalho de Conclusão de Curso (Bacharelado em Ciência da Computação) – Universidade Estadual Paulista (Unesp), Instituto de Biociências Letras e Ciências Exatas, São José do Rio Preto, São José do Rio Preto, 2024.
https://hdl.handle.net/11449/261770
identifier_str_mv SUGAWARA, Igor Kauê Gouveia. IA explicável como reforço de treinamento em CNN: uma investigação no contexto de imagens H&E. 2024. 47 f. Trabalho de Conclusão de Curso (Bacharelado em Ciência da Computação) – Universidade Estadual Paulista (Unesp), Instituto de Biociências Letras e Ciências Exatas, São José do Rio Preto, São José do Rio Preto, 2024.
url https://hdl.handle.net/11449/261770
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidade Estadual Paulista (Unesp)
publisher.none.fl_str_mv Universidade Estadual Paulista (Unesp)
dc.source.none.fl_str_mv reponame:Repositório Institucional da UNESP
instname:Universidade Estadual Paulista (UNESP)
instacron:UNESP
instname_str Universidade Estadual Paulista (UNESP)
instacron_str UNESP
institution UNESP
reponame_str Repositório Institucional da UNESP
collection Repositório Institucional da UNESP
repository.name.fl_str_mv Repositório Institucional da UNESP - Universidade Estadual Paulista (UNESP)
repository.mail.fl_str_mv repositoriounesp@unesp.br
_version_ 1834482771259555840