Standard

ОПТИМИЗАЦИЯ ГИПЕРПАРАМЕТРОВ АЛГОРИТМОВ ГРАДИЕНТНОГО БУСТИНГА. / Сорокина, Светлана Олеговна; Михайлова, Елена Георгиевна.

в: Процессы управления и устойчивость, Том 8, № 1, 2021, стр. 326-331.

Результаты исследований: Научные публикации в периодических изданияхстатьяРецензирование

Harvard

Сорокина, СО & Михайлова, ЕГ 2021, 'ОПТИМИЗАЦИЯ ГИПЕРПАРАМЕТРОВ АЛГОРИТМОВ ГРАДИЕНТНОГО БУСТИНГА', Процессы управления и устойчивость, Том. 8, № 1, стр. 326-331.

APA

Vancouver

Author

BibTeX

@article{f9073540e549443298f02a6daf3b7512,
title = "ОПТИМИЗАЦИЯ ГИПЕРПАРАМЕТРОВ АЛГОРИТМОВ ГРАДИЕНТНОГО БУСТИНГА",
abstract = "Реализации алгоритмов градиентного бустинга, такие как XGBoost, CatBoost и LightGBM, являются весьма популярными при решении задач регрессии и классификации. Эти алгоритмы стали весьма распространены благодаря высоким результатам в соревнованиях на платформе kaggle.com. Одной из задач машинного обучения при построении моделей является оптимизация гиперпараметров алгоритмов. Самыми популярными методами оптимизации являются поиск по сетке и случайный поиск. Все методы поиска сопровождаются большим количеством переборов возможных комбинаций значений гиперпараметров с последующим построением и оценкой моделей. В рамках этой статьи рассматривается возможность упрощения поиска оптимальных значений гиперпараметров с помощью разбиения множества гиперпараметров на группы и введения критерия остановки.",
keywords = "ОПТИМИЗАЦИЯ ГИПЕРПАРАМЕТРОВ, ГРАДИЕНТНЫЙ БУСТИНГ, машинное обучение, hyperparameters optimization, gradient boosting, machine learning",
author = "Сорокина, {Светлана Олеговна} and Михайлова, {Елена Георгиевна}",
year = "2021",
language = "русский",
volume = "8",
pages = "326--331",
journal = "Процессы управления и устойчивость",
issn = "2313-7304",
publisher = "Смирнов Николай Васильевич",
number = "1",

}

RIS

TY - JOUR

T1 - ОПТИМИЗАЦИЯ ГИПЕРПАРАМЕТРОВ АЛГОРИТМОВ ГРАДИЕНТНОГО БУСТИНГА

AU - Сорокина, Светлана Олеговна

AU - Михайлова, Елена Георгиевна

PY - 2021

Y1 - 2021

N2 - Реализации алгоритмов градиентного бустинга, такие как XGBoost, CatBoost и LightGBM, являются весьма популярными при решении задач регрессии и классификации. Эти алгоритмы стали весьма распространены благодаря высоким результатам в соревнованиях на платформе kaggle.com. Одной из задач машинного обучения при построении моделей является оптимизация гиперпараметров алгоритмов. Самыми популярными методами оптимизации являются поиск по сетке и случайный поиск. Все методы поиска сопровождаются большим количеством переборов возможных комбинаций значений гиперпараметров с последующим построением и оценкой моделей. В рамках этой статьи рассматривается возможность упрощения поиска оптимальных значений гиперпараметров с помощью разбиения множества гиперпараметров на группы и введения критерия остановки.

AB - Реализации алгоритмов градиентного бустинга, такие как XGBoost, CatBoost и LightGBM, являются весьма популярными при решении задач регрессии и классификации. Эти алгоритмы стали весьма распространены благодаря высоким результатам в соревнованиях на платформе kaggle.com. Одной из задач машинного обучения при построении моделей является оптимизация гиперпараметров алгоритмов. Самыми популярными методами оптимизации являются поиск по сетке и случайный поиск. Все методы поиска сопровождаются большим количеством переборов возможных комбинаций значений гиперпараметров с последующим построением и оценкой моделей. В рамках этой статьи рассматривается возможность упрощения поиска оптимальных значений гиперпараметров с помощью разбиения множества гиперпараметров на группы и введения критерия остановки.

KW - ОПТИМИЗАЦИЯ ГИПЕРПАРАМЕТРОВ

KW - ГРАДИЕНТНЫЙ БУСТИНГ

KW - машинное обучение

KW - hyperparameters optimization

KW - gradient boosting

KW - machine learning

UR - https://www.elibrary.ru/item.asp?id=46226993

M3 - статья

VL - 8

SP - 326

EP - 331

JO - Процессы управления и устойчивость

JF - Процессы управления и устойчивость

SN - 2313-7304

IS - 1

ER -

ID: 85590005