CONSISTENCY OF LIME EXPLANATIONS: EVALUATING EXPLAINABLE AI FOR PLANT CLASSIFICATION



CONSISTENCY OF LIME EXPLANATIONS: EVALUATING EXPLAINABLE AI FOR PLANT CLASSIFICATION
Guilherme Rafael Deschamps
Fernando Santos

18/03/2026
25-40
2
With the increasing adoption of machine learning techniques, the demand for explaining decisions has grown. Explainability is the ability of a classification model to provide insights about its decisions, and it has been investigated in the field of explainable artificial intelligence (XAI). Explanation techniques have been proposed recently, and one such technique is Local Interpretable Model-Agnostic Explanations (LIME). This paper investigates whether LIME produces consistent explanations through a case study on plant classification. A convolutional neural network (CNN) classifier is trained with images of leaves, and LIME is applied to provide explanations of the decisions. LIME is evaluated with different parameter values to determine which produced stable explanations. Results show that LIME can consistently provide explanations, but its consistency depends on the number of samples used.
Ler mais...Explainable AI; LIME; Machine Learning; Plant Classification
Esta obra está licenciada com uma Licença Creative Commons Atribuição-NãoComercial-SemDerivações 4.0 Internacional .

O conteúdo dos capítulos e seus dados e sua forma, correção e confiabilidade, são de responsabilidade exclusiva do(s) autor(es). É permitido o download e compartilhamento desde que pela origem e no formato Acesso Livre (Open Access), com os créditos e citação atribuídos ao(s) respectivo(s) autor(es). Não é permitido: alteração de nenhuma forma, catalogação em plataformas de acesso restrito e utilização para fins comerciais. O(s) autor(es) mantêm os direitos autorais do texto.

