Ускорение обучения глубокой нейронной сети путем оптимизации алгоритма для запуска на MIC архитектуре

Е.А. Милова, С.Ю. Свешникова, И.Г. Ганкевич

Research output

Abstract

Глубокие нейронные сети позволяют получить высокую точность распознавания, но требуют больших вычислительных мощностей и временных затрат в процессе обучения. Второе связано с тем, что алгоритм обучения является итертивным. Целью исследования является изучение эффективности решения данной задачи на MIC архитектуре без изменения базового алгоритма. Для повышения эффективности работы программы на MIC архитектуре были использованы приемы векторизации и распараллеливания кода. В процессе исследования были опробованы 2 модели передачи данных на сопроцессор: явная и неявная и проведено сравнение их эффективности. Рассмотрены причины, влияющие эффективность распараллеливания данной задачи. MIC архитектура показала показала производительность, сравнимую с многоядерным процессором.
Original languageRussian
JournalПроцессы управления и устойчивость
Publication statusPublished - 2016

Cite this