Preview

Электронные библиотеки

Расширенный поиск

Ядро верифицируемой объяснимости: гибридная архитектура GD-ANFIS/SHAP для XAI 2.0

https://doi.org/10.26907/1562-5419-2025-28-5-1230-1252

Аннотация


Предложена гибридная архитектура Explainable AI, совмещающая полностью дифференцируемую нейро-нечеткую модель GD-ANFIS и пост-хок метод SHAP. Интеграция выполнена с целью реализации принципов XAI 2.0, требующих одновременной прозрачности, проверяемости и адаптивности объяснений.


GD-ANFIS формирует человеческо-читаемые правила типа Такаги – Сугено, обеспечивая структурную интерпретируемость, тогда как SHAP вычисляет количественные вклады признаков по теории Шепли. Для объединения этих слоев разработан механизм компаративного аудита: он автоматически сопоставляет наборы ключевых признаков, проверяет совпадение направлений их влияния и анализирует согласованность между числовыми оценками SHAP и лингвистическими правилами GD-ANFIS. Такой двухконтурный контроль повышает доверие к выводам модели и позволяет оперативно выявлять потенциальные расхождения.


Эффективность подхода подтверждена экспериментами на четырех разнородных наборах данных. В медицинской задаче классификации Breast Cancer Wisconsin достигнута точность 0.982; в задаче глобального картирования просадок грунта — 0.89. В регрессионных тестах на Boston Housing и мониторинге качества поверхностных вод получены RMSE 2.30 и 2.36 соответственно при полном сохранении интерпретируемости. Во всех случаях пересечение топ-признаков в объяснениях двух методов составляло не менее 60%, что демонстрирует высокую согласованность структурных и числовых трактовок.


Предложенная архитектура формирует практическую основу для ответственного внедрения XAI 2.0 в критически важных областях — от медицины и экологии до геоинформационных систем и финансового сектора.

Об авторах

Юрий Владиславович Трофимов
Государственный университет «Дубна»
Россия


Александр Дмитриевич Лебедев
Государственный университет «Дубна»
Россия


Андрей Сергеевич Ильин
Университет Иннополис
Россия


Алексей Николаевич Аверкин
Вычислительный центр им. А. А. Дородницына РАН
Россия


Список литературы

1. Trofimov Y.V., Shevchenko A.V., Averkin A.N., Muravyov I.P., Kuznetsov E.M. Concept of hierarchically organized explainable intelligent systems: synthesis of deep neural networks, fuzzy logic and incremental learning in medical diagnostics // Proceedings of the VI International Conference on Neural Networks and Neurotechnologies (NeuroNT). 2025. P. 14–17. https://doi.org/10.1109/NeuroNT66873.2025.11049976

2. Rudin C. Stop explaining black box machine learning models for high‑stakes decisions and use interpretable models instead // Nature Machine Intelligence. 2019. Vol. 1, No. 5. P. 206–215. https://doi.org/10.1038/s42256-019-0048-x

3. Lundberg S.M., Lee S.-I. A unified approach to interpreting model predictions // Advances in Neural Information Processing Systems. 2017. Vol. 30. P. 4765–4774. https://doi.org/10.48550/arXiv.1705.07874

4. Ribeiro M.T., Singh S., Guestrin C. “Why Should I Trust You?” Explaining the predictions of any classifier // Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. 2016. P. 1135–1144. https://doi.org/10.1145/2939672.2939778

5. Lipton Z.C. The mythos of model interpretability // Communications of the ACM. 2018. Vol. 61, no. 10. P. 36–43. https://doi.org/10.1145/3233231

6. Doshi-Velez F., Kim B. Towards a rigorous science of interpretable machine learning // arXiv preprint. 2017. arXiv:1702.08608. https://doi.org/10.48550/arXiv.1702.08608

7. Jang J.S.R. ANFIS: Adaptive-network-based fuzzy inference system // IEEE Transactions on Systems, Man, and Cybernetics. 1993. Vol. 23, no. 3. P. 665–685 https://doi.org/10.1109/21.256541

8. Zadeh L.A. Fuzzy sets // Information and Control. 1965. Vol. 8, No. 3. P. 338–353. https://doi.org/10.1016/S0019-9958(65)90241-X

9. Trofimov Y.V., Averkin A.N. The relationship between trusted artificial intelligence and XAI 2.0: theory and frameworks // Soft Measurements and Computing. 2025. Vol. 90, No. 5. P. 68–84. https://doi.org/10.36871/2618-9976.2025.05.006

10. Takagi T., Sugeno M. Fuzzy identification of systems and its applications to modeling and control // IEEE Transactions on Systems, Man, and Cybernetics. 1985. Vol. 15, No. 1. P. 116–132. https://doi.org/10.1109/TSMC.1985.6313399

11. Nguyen T., Mirjalili S. X‑ANFIS: explainable adaptive neuro‑fuzzy inference system: repository. Электрон. ресурс // GitHub. 2023. Дата обращения: 15.01.2025.

12. Shapley L.S. A value for n‑person games // Contributions to the Theory of Games, vol. 2. Princeton University Press. 1953. P. 307–317. https://doi.org/10.1515/9781400881970-018

13. Breiman L. Random forests // Machine Learning. 2001. Vol. 45, no. 1. P. 5–32. https://doi.org/10.1023/A:1010933404324

14. Comprehensive surface water quality monitoring dataset (1940–2023): dataset. Электрон. ресурс // Figshare. 2025. https://doi.org/10.6084/m9.figshare.27800394. Дата обращения: июль 2025.

15. Hasan M.F., Smith R., Vajedian S., Majumdar S., Pommerenke R. Global land subsidence mapping reveals widespread loss of aquifer storage capacity // Nature Communications. 2023. Vol. 14. Art. 6180. https://doi.org/10.1038/s41467-023-41933-z


Рецензия

Для цитирования:


Трофимов Ю.В., Лебедев А.Д., Ильин А.С., Аверкин А.Н. Ядро верифицируемой объяснимости: гибридная архитектура GD-ANFIS/SHAP для XAI 2.0. Электронные библиотеки. 2025;28(5):1230-1252. https://doi.org/10.26907/1562-5419-2025-28-5-1230-1252

For citation:


Trofimov Yu.V., Lebedev A.D., Ilin A.S., Averkin A.N. Verified Explainability Core: a GD-ANFIS/SHAP Hybrid Architecture for XAI 2.0. Russian Digital Libraries Journal. 2025;28(5):1230-1252. (In Russ.) https://doi.org/10.26907/1562-5419-2025-28-5-1230-1252

Просмотров: 38

JATS XML


Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 1562-5419 (Online)