Standard

Ускорение обучения глубокой нейронной сети путем оптимизации алгоритма для запуска на MIC архитектуре. / Милова, Е.А.; Свешникова, С.Ю.; Ганкевич, И.Г.

In: Процессы управления и устойчивость, 2016.

Research output: Contribution to journalArticle

Harvard

APA

Vancouver

Author

BibTeX

@article{1ddcb69b6ef34f598b4d97c81950ca35,
title = "Ускорение обучения глубокой нейронной сети путем оптимизации алгоритма для запуска на MIC архитектуре",
abstract = "Глубокие нейронные сети позволяют получить высокую точность распознавания, но требуют больших вычислительных мощностей и временных затрат в процессе обучения. Второе связано с тем, что алгоритм обучения является итертивным. Целью исследования является изучение эффективности решения данной задачи на MIC архитектуре без изменения базового алгоритма. Для повышения эффективности работы программы на MIC архитектуре были использованы приемы векторизации и распараллеливания кода. В процессе исследования были опробованы 2 модели передачи данных на сопроцессор: явная и неявная и проведено сравнение их эффективности. Рассмотрены причины, влияющие эффективность распараллеливания данной задачи. MIC архитектура показала показала производительность, сравнимую с многоядерным процессором.",
author = "Е.А. Милова and С.Ю. Свешникова and И.Г. Ганкевич",
year = "2016",
language = "русский",
journal = "Процессы управления и устойчивость",
issn = "2313-7304",
publisher = "Смирнов Николай Васильевич",

}

RIS

TY - JOUR

T1 - Ускорение обучения глубокой нейронной сети путем оптимизации алгоритма для запуска на MIC архитектуре

AU - Милова, Е.А.

AU - Свешникова, С.Ю.

AU - Ганкевич, И.Г.

PY - 2016

Y1 - 2016

N2 - Глубокие нейронные сети позволяют получить высокую точность распознавания, но требуют больших вычислительных мощностей и временных затрат в процессе обучения. Второе связано с тем, что алгоритм обучения является итертивным. Целью исследования является изучение эффективности решения данной задачи на MIC архитектуре без изменения базового алгоритма. Для повышения эффективности работы программы на MIC архитектуре были использованы приемы векторизации и распараллеливания кода. В процессе исследования были опробованы 2 модели передачи данных на сопроцессор: явная и неявная и проведено сравнение их эффективности. Рассмотрены причины, влияющие эффективность распараллеливания данной задачи. MIC архитектура показала показала производительность, сравнимую с многоядерным процессором.

AB - Глубокие нейронные сети позволяют получить высокую точность распознавания, но требуют больших вычислительных мощностей и временных затрат в процессе обучения. Второе связано с тем, что алгоритм обучения является итертивным. Целью исследования является изучение эффективности решения данной задачи на MIC архитектуре без изменения базового алгоритма. Для повышения эффективности работы программы на MIC архитектуре были использованы приемы векторизации и распараллеливания кода. В процессе исследования были опробованы 2 модели передачи данных на сопроцессор: явная и неявная и проведено сравнение их эффективности. Рассмотрены причины, влияющие эффективность распараллеливания данной задачи. MIC архитектура показала показала производительность, сравнимую с многоядерным процессором.

M3 - статья

JO - Процессы управления и устойчивость

JF - Процессы управления и устойчивость

SN - 2313-7304

ER -

ID: 7564712