МЕТОДЫ ИНТЕРПРЕТАЦИИ ЧЕРНЫХ ЯЩИКОВ МАШИННОГО ОБУЧЕНИЯ И ИХ ПРИМЕНЕНИЕ ДЛЯ СОЗДАНИЯ СИСТЕМ ПОДДЕРЖКИ ПРИНЯТИЯ РЕШЕНИЙ
Ключевые слова:
объяснимое машинное обучение, многокритериальная система поддержки принятия решений, GeoAI, аддитивное объяснение Шапли (SHAP), объяснение «черных ящиков»Аннотация
В последнее время искусственный интеллект (ИИ) добился больших успехов благодаря быстрому развитию технологий машинного обучения. Несмотря на это, существуют потенциальные риски, связанные с подходом к обучению по принципу «черного ящика». В отличие от некоторых классических методов машинного обучения, особенно деревьев решений, в которых результаты модели обычно можно объяснить, моделям нелинейной классификации и особенно глубокого обучения не хватает прозрачности, что затрудняет понимание того, как модель приняла то или иное решение. Появившиеся в последнее время модели объяснения результатов машинного обучения частично решают это задачу. Цель научного сообщества заключается в создании объяснимых моделей машинного обучения (EML). Важным результатом этих усилий является возможность применения EML в системах поддержки принятия решений. В настоящей работе описываются некоторые современные модели объяснения результатов работы моделей машинного обучения и описывается подход к применению EML в системах многокритериальной поддержки принятия решений. Суть описываемого подхода заключается в построении модели машинного обучения на основе данных об объектах управления и последующем использовании объяснений для выработки рекомендаций по воздействию на объекты с целью улучшения целевого показателя. Мы приводим схему подобной системы и примеры результатов ее применения в задачах управления организациями среднего образования и здравоохранения.