Реализации алгоритмов градиентного бустинга, такие как XGBoost, CatBoost и LightGBM, являются весьма популярными при решении задач регрессии и классификации. Эти алгоритмы стали весьма распространены благодаря высоким результатам в соревнованиях на платформе kaggle.com. Одной из задач машинного обучения при построении моделей является оптимизация гиперпараметров алгоритмов. Самыми популярными методами оптимизации являются поиск по сетке и случайный поиск. Все методы поиска сопровождаются большим количеством переборов возможных комбинаций значений гиперпараметров с последующим построением и оценкой моделей. В рамках этой статьи рассматривается возможность упрощения поиска оптимальных значений гиперпараметров с помощью разбиения множества гиперпараметров на группы и введения критерия остановки.