Um Novo Modelo de Rede Neural Interpretável para Predizer o Índice-h de Cientistas
Nenhuma Miniatura disponível
Data
2023-08-01
Autores
Título da Revista
ISSN da Revista
Título de Volume
Editor
UFMA
Resumo
Os modelos de aprendizado de máquina, como as redes neurais, tem desempenhado um
papel crucial em diversos campos da ciência. Um deles é trazendo previsões altamente
precisas sobre os alcances de longo prazo de cientistas. No entanto, apesar do seu amplo
sucesso em suas predições, tais modelos sofrem de uma grande fraqueza, a falta de
explicabilidade ou transparência de suas decisões e ações autônomas. Atualmente, devido
à não compreensão do raciocínio por trás de uma decisão destes modelos, cientistas com
menor status podem estar sendo prejudicados. Neste trabalho, propomos uma Rede Neural
Artificial (RNA) para predizer o índice-h de pesquisadores e tornamos as suas decisões
acessíveis à avaliadores humanos usando os explicadores LIME e SHAP. Este trabalho
busca demonstrar que a utilização de um modelo explicável é uma decisão importante e,
de fato, fundamental para confiarmos em suas decisões. Nossos experimentos demonstram
que as explicativas providas podem auxiliar os tomadores de decisão a tomar decisões
mais informadas e a detectar vieses propagados pelo modelo. Futuramente, pretende-se
implantar este modelo em uma Aplicação Web para auxiliar pesquisadores, universidades
e agências de pesquisa em suas atividades diárias.
Descrição
Machine learning models, such as neural networks, have played a crucial role in many fields
of science. One is bringing highly accurate predictions about the long-term achievements of
scientists. However, despite their widespread success in their predictions, such models suffer
from a major weakness, the lack of explainability or transparency of their autonomous
decisions and actions. Currently, due to the lack of understanding of the reasoning behind
a decision made by these models, scientists with lower status may be being harmed. In this
work, we propose an Artificial Neural Network (ANN) to predict researchers’ h-index and
make its decisions accessible to human evaluators using LIME and SHAP explainers. This
work seeks to demonstrate that the use of an explainable model is an important decision
and, in fact, fundamental for us to trust its decisions. Our experiments demonstrate that
the provided explanations can help decision makers to make more informed decisions and
to detect biases propagated by the model. In the future, it is intended to implement this
model in a Web Application to help researchers, universities and research agencies in their
daily activities.
Palavras-chave
Redes Neurais Artificiais;, Aprendizado Profundo;, Redes Acadêmicas;, LIME;, SHAP;, IA Explicável;, Índice-H, Artificial Neural Networks;, Deep Learning;, Academic Networks;, LIME;, SHAP;, Explainable AI;, H-index