A study about Explainable Articial Intelligence: using decision tree to explain SVM

Resumo

As tecnologias baseadas em Inteligência Artificial (IA) avançaram rapidamente nos últimos e anos e a IA está se tornando comum em todos os aspectos da vida, como o futuro dos carros autônomos ou agilidade em diagnósticos médicos. Para que isso ocorra, toda a comunidade está diante da barreira da explicabilidade, um problema inerente às mais recentes técnicas trazidas por modelos mais complexos de aprendizado máquina (por exemplo, redes neurais profundas) que não estavam presentes na última onda de IA (modelos baseados em regras). A maioria desses modelos mais recentes é usada como caixa preta, sem entender parcialmente ou até completamente como diferentes características influenciam nas predições do modelo, evitando a transparência algorítmica. Este artigo foca na identificação da melhor maneira de entender as decisões tomadas por um classificador SVM em uma abordagem agnóstica post-hoc. Além disso, treinamos um modelo baseado em árvore de decisão (inerentemente interpretável) usando rótulos do SVM, chamado de dado secundário de treinamento, para fornecer explicações e comparar a importância das características por meio do método de permutação com as métricas mais usadas, como acurácia, e mostrar que nossos métodos e técnicas são mais significativos. Também delineamos os principais desafios de tais métodos e concluímos que a interpretabilidade post-hoc é um componente essencial para tornar o aprendizado de máquina mais confiável.

Downloads

Não há dados estatísticos.
Publicado
2020-01-08
Como Citar
[1]
Vieira, C. e Digiampietri, L. 2020. A study about Explainable Articial Intelligence: using decision tree to explain SVM. Revista Brasileira de Computação Aplicada. 12, 1 (jan. 2020), 113-121. DOI:https://doi.org/10.5335/rbca.v12i1.10247.
Seção
Artigo Original
Share |