mastodon.world is one of the many independent Mastodon servers you can use to participate in the fediverse.
Generic Mastodon server for anyone to use.

Server stats:

9.8K
active users

#shap

0 posts0 participants0 posts today

Как мы обучили модель прогноза ранней просрочки: логистическая регрессия vs градиентный бустинг

Всем привет! На связи дата-сайентисты стрима разработки моделей для корпоративного сегмента ВТБ — Андрей Бояренков, Иван Кондраков и Денис Дурасов. Как уже писали ранее в другой статье , внедрение процесса AutoML позволило нам во многом автоматизировать рутину и разработки, и применения моделей. Соответственно, у нас появилось больше времени для RnD-задач, которые могли бы быть полезны нашим заказчикам, чтобы охватить моделями новые процессы, а также провести исследования новых алгоритмов. Поэтому мы составили мэппинг возможных моделей на элементы работы Банка с клиентами малого и среднего бизнеса в части предотвращения просрочек по кредитной задолженности, а также по взысканию задолженности. Из данной схемы стало понятно, что есть необходимость разработать модели для процессов по мониторингу заёмщиков Банка — Precollection-модели. Под катом расскажем, как мы их разрабатывали и каких результатов удалось с ними добиться.

habr.com/ru/companies/vtb/arti

ХабрКак мы обучили модель прогноза ранней просрочки: логистическая регрессия vs градиентный бустингВсем привет! На связи дата-сайентисты стрима разработки моделей для корпоративного сегмента ВТБ — Андрей Бояренков , Иван Кондраков и Денис Дурасов . Как уже писали ранее в другой статье , внедрение...
#data_science#ds#ml

🌘 機器學習模型解釋: 解讀 SHAP 分析的非技術指南
➤ SHAP 解析在機器學習中的應用及注意事項
aidancooper.co.uk/a-non-techni
SHAP(SHapley Additive exPlanations)是一種解釋機器學習模型如何進行預測的方法,能幫助非技術人員瞭解其複雜的輸出。本指南針對兩種受眾:資料科學家提供了呈現 SHAP 分析結果和解釋相關圖表的結構化方法;需要理解 SHAP 輸出但不需瞭解其背後方法的人,則提供瞭解釋 SHAP 圖表及從中獲得意義洞見的詳盡解說。SHAP 可解釋每個輸入變數對模型預測的重要性,有助於檢查模型是否表現合理,滿足監管需求。透過 SHAP 還能檢視特徵間的關係,但需謹慎因為結果僅反映在訓練數據上的模型行為。
+ 喜歡這篇文章提供了對 SHAP 解析非常清晰易懂的解說,讓人更能理解機器學習模型的運作方式。
+ 這篇內容真的很有幫助,對於想要深入瞭解如何解讀機器學
#機器學習 #SHAP 解析 #解釋性人工智慧

Aidan Cooper · Explaining Machine Learning Models: A Non-Technical Guide to Interpreting SHAP AnalysesWith interpretability becoming an increasingly important requirement for machine learning projects, there's a growing need for the complex outputs of techniques such as SHAP to be communicated to non-technical stakeholders.

Фичи в парламент: еще один подход оценить важность признаков в древесных анcамблях

Привет, друзья! Признаки, которыми орудует модель ИИ, в чём-то похожи на группы лиц, соединяющихся, чтобы сыграть в игру и выйграть максимально много. Этой идеей в задаче оценки важности коэффициентов в модели вдохновлен метод SHAP. И теперь не он один! Про метод, основанный на идее выборов в парламент в этой статье.

habr.com/ru/articles/860668/

ХабрФичи в парламент: еще один подход оценить важность признаков в древесных анcамбляхПривет, друзья! Признаки, которыми орудует модель ИИ, в чём-то похожи на группы лиц, соединяющихся, чтобы сыграть в игру и выйграть максимально много. Этой идеей в задаче оценки важности коэффициентов...

Практическая устойчивость значений Шепли в интерпретации моделей ИИ

Привет, Хабр! В исследованиях и на практике значения Шепли (Shapley values) — один из наиболее популярных методов интерпретации как на практике, так и в исследованиях. На практике этого не делается — применяется аппроксимация. Отсюда возникают вопросы, ответы на которые мы рассмотрим с вами в этой статье :)

habr.com/ru/articles/853794/

ХабрПрактическая устойчивость значений Шепли в интерпретации моделей ИИПривет, Хабр! В исследованиях и на практике значения Шепли (Shapley values) — один из наиболее популярных методов интерпретации. По определению, значения Шепли вычисляются по оценке вклада признака во...

[Перевод] ML-подход к заблаговременному предотвращению оттока рекламодателей

В этом материале мы опишем систему для заблаговременного предотвращения оттока рекламодателей, основанную на машинном обучении (ML, Machine Learning). Прототип системы создан на основе данных организаций малого и среднего бизнеса (Small & Medium Business, SMB), с которыми работает Pinterest. Результаты изначального эксперимента говорят о том, что мы, с высокой вероятностью, можем обнаруживать возможный уход рекламодателей. Это, в свою очередь, способно помочь нашим торговым партнёрам. Система, подобная нашей, может достичь лучших результатов, чем обычный подход, когда пытаются вернуть уже ушедшего клиента.

habr.com/ru/companies/wunderfu

ХабрML-подход к заблаговременному предотвращению оттока рекламодателейВ этом материале мы опишем систему для заблаговременного предотвращения оттока рекламодателей, основанную на машинном обучении (ML, Machine Learning). Прототип системы создан...

Использование теории игр для повышения прозрачности моделей машинного обучения

Интерпретация современных моделей машинного обучения может быть чрезвычайно сложным делом учитывая, что количество параметров и весовых коэффициентов может идти на тысячи и даже миллионы. Тем не менее это совершенно необходимо, для повышения качества, обеспечения стабильности и предсказуемости работы модели. В этом нам может помочь теория игр, математическая дисциплина позволяющая выделить из сложного взаимодействия факторов модели отдельный вклад каждого в конечное предсказание.

habr.com/ru/articles/795957/

#теория_игр #машинное+обучение #интерпретация #чёрный_ящик #математика #shapley_values #shap #feature_importance #data_science

ХабрИспользование теории игр для повышения прозрачности моделей машинного обученияПроблема черных ящиков   Отсутствие прозрачности это одна из ключевых проблем современного машинного обучения. Обученную модель больше невозможно представить в виде набора весовых коэффициентов,...

LIME и SHAP

Модели МО часто сравнивают с " черными ящиками " из-за их неспособности ясно объяснить свои решения. Проблема " черного ящика " возникает, когда внутренняя работа модели настолько сложна или неясна, что даже ее создатели не могут точно понять, как был получен тот или иной результат. Это создает серьезные проблемы, особенно в ситуациях, требующих строгой подотчетности и прозрачности. Методы к LIME (Local Interpretable Model-agnostic Explanations) и SHAP (SHapley Additive exPlanations), позволяют получить понимание решений, принятых сложными моделями.

habr.com/ru/companies/otus/art

ХабрLIME и SHAPМодели МО часто сравнивают с " черными ящиками " из-за их неспособности ясно объяснить свои решения. Проблема " черного ящика " возникает, когда внутренняя работа модели настолько сложна или неясна,...