Реализации алгоритмов градиентного бустинга, такие как XGBoost, CatBoost и LightGBM, являются весьма популярными при решении задач регрессии и классификации. Эти алгоритмы стали весьма распространены благодаря высоким результатам в соревнованиях на платформе kaggle.com. Одной из задач машинного обучения при построении моделей является оптимизация гиперпараметров алгоритмов. Самыми популярными методами оптимизации являются поиск по сетке и случайный поиск. Все методы поиска сопровождаются большим количеством переборов возможных комбинаций значений гиперпараметров с последующим построением и оценкой моделей. В рамках этой статьи рассматривается возможность упрощения поиска оптимальных значений гиперпараметров с помощью разбиения множества гиперпараметров на группы и введения критерия остановки.
Переведенное названиеHYPERPARAMETERS OPTIMIZATION OF GRADIENT BOOSTING ALGORITHMS
Язык оригиналарусский
Страницы (с-по)326-331
ЖурналПроцессы управления и устойчивость
Том8
Номер выпуска1
СостояниеОпубликовано - 2021

    Области исследований

  • ОПТИМИЗАЦИЯ ГИПЕРПАРАМЕТРОВ, ГРАДИЕНТНЫЙ БУСТИНГ, машинное обучение

ID: 85590005