Оптимізація ширини потокового графа алгоритму у нейронних мережах для зменшення використання процесорних елементів на одноплатних комп’ютерах

dc.citation.epage241
dc.citation.issue2
dc.citation.journalTitleКомп'ютерні системи та мережі
dc.citation.spage232
dc.citation.volume6
dc.contributor.affiliationНаціональний університет “Львівська політехніка”
dc.contributor.affiliationНаціональний університет “Львівська політехніка”
dc.contributor.affiliationLviv Polytechnic National University
dc.contributor.affiliationLviv Polytechnic National University
dc.contributor.authorФастюк, Є. І.
dc.contributor.authorГузинець, Н. В.
dc.contributor.authorFastiuk, Y.
dc.contributor.authorHuzynets, N.
dc.coverage.placenameЛьвів
dc.coverage.placenameLviv
dc.date.accessioned2025-12-11T11:15:23Z
dc.date.created2024-10-10
dc.date.issued2024-10-10
dc.description.abstractУ статті представлено метод оптимізації потокового графа алгоритму глибинної нейронної мережі для зменшення кількості процесорних елементів (ПЕ), необхідних для виконання алгоритму на одноплатних комп’ютерах. Запропонований підхід ґрунтується на використанні структурної матриці для оптимізації архітектури нейронної мережі без втрати продуктивності. Дослідження показало, що завдяки зменшенню ширини графа вдалося зменшити кількість процесорних елементів з 3 до 2, зберігаючи при цьому продуктивність мережі на рівні 75% ефективності. Цей підхід є важливим, оскільки дозволяє розширити можливості застосування нейронних мереж у вбудованих системах і IoT, підвищити ефективність використання обчислювальних ресурсів на пристроях з обмеженими обчислювальними можливостями, забезпечуючи ефективне використання обчислювальних ресурсів.
dc.description.abstractThe article presents a method for optimizing the algorithm flow graph of a deep neural network to reduce the number of processor elements (PE) required for executing the algorithm on single-board computers. The proposed approach is based on the use of a structural matrix to optimize the neural network architecture without loss of performance. The research demonstrated that by reducing the width of the graph, the number of processor elements was reduced from 3 to 2, while maintaining network performance at 75% efficiency. This approach is significant as it expands the potential applications of neural networks in embedded systems and IoT, enhancing the efficiency of computational resource utilization on devices with limited computational capabilities, ensuring effective use of resources.
dc.format.extent232-241
dc.format.pages10
dc.identifier.citationФастюк Є. І. Оптимізація ширини потокового графа алгоритму у нейронних мережах для зменшення використання процесорних елементів на одноплатних комп’ютерах / Є. І. Фастюк, Н. В. Гузинець // Комп'ютерні системи та мережі. — Львів : Видавництво Львівської політехніки, 2024. — Том 6. — № 2. — С. 232–241.
dc.identifier.citation2015Фастюк Є. І., Гузинець Н. В. Оптимізація ширини потокового графа алгоритму у нейронних мережах для зменшення використання процесорних елементів на одноплатних комп’ютерах // Комп'ютерні системи та мережі, Львів. 2024. Том 6. № 2. С. 232–241.
dc.identifier.citationenAPAFastiuk, Y., & Huzynets, N. (2024). Optymizatsiia shyryny potokovoho hrafa alhorytmu u neironnykh merezhakh dlia zmenshennia vykorystannia protsesornykh elementiv na odnoplatnykh kompiuterakh [Optimization of the algorithm flow graph width in neural networks to reduce use of processor elements]. Computer Systems and Networks, 6(2), 232-241. Lviv Politechnic Publishing House. [in Ukrainian].
dc.identifier.citationenCHICAGOFastiuk Y., Huzynets N. (2024) Optymizatsiia shyryny potokovoho hrafa alhorytmu u neironnykh merezhakh dlia zmenshennia vykorystannia protsesornykh elementiv na odnoplatnykh kompiuterakh [Optimization of the algorithm flow graph width in neural networks to reduce use of processor elements]. Computer Systems and Networks (Lviv), vol. 6, no 2, pp. 232-241 [in Ukrainian].
dc.identifier.doiDOI: https://doi.org/10.23939/csn2024.02.232
dc.identifier.urihttps://ena.lpnu.ua/handle/ntb/123983
dc.language.isouk
dc.publisherВидавництво Львівської політехніки
dc.publisherLviv Politechnic Publishing House
dc.relation.ispartofКомп'ютерні системи та мережі, 2 (6), 2024
dc.relation.ispartofComputer Systems and Networks, 2 (6), 2024
dc.relation.references1. Zhuang Liu, Jianguo Li, Zhiqiang Shen, Gao Huang, Shoumeng Yan, and Changshui Zhang. 2017. Learning Efficient Convolutional Networks through Network Slimming. CoRR abs/1708.06519, (2017). DOI:10.48550/arXiv.1708.06519
dc.relation.references2. Vivienne Sze, Yu-Hsin Chen, Tien-Ju Yang, and Joel S. Emer. 2017. Efficient Processing of Deep Neural Networks: A Tutorial and Survey. CoRR abs/1703.09039, (2017). DOI: 10.48550/arXiv.1703.09039
dc.relation.references3. Hengyuan Hu, Rui Peng, Yu-Wing Tai, and Chi-Keung Tang. 2016. Network Trimming: A Data-Driven Neuron Pruning Approach towards Efficient Deep Architectures. CoRR abs/1607.03250, (2016). DOI:10.48550/arXiv.1607.03250
dc.relation.references4. Song Han, Jeff Pool, John Tran, and William J. Dally. 2015. Learning both Weights and Connections for Efficient Neural Networks. CoRR abs/1506.02626, (2015). DOI: 10.48550/arXiv.1506.02626
dc.relation.references5. Мельник, А.О., Яковлєва, І.Д. і Ющенко, В.Ю. 2010. ПОБУДОВА ТА МАТРИЧНЕ ПОДАННЯ ПОТОКОВОГО ГРАФА АЛГОРИТМУ. Вісник Вінницького політехнічного інституту. 3 (Листоп. 2010), 93–99. URL: https://visnyk.vntu.edu.ua/index.php/visnyk/article/view/757 (Дата звернення: 16 Жовтня 2024)
dc.relation.references6. Мельник, А.О., і Мицко, Ю.Є. 2012. ВИКОНАННЯ ПОДАНИХ ПОТОКОВИМ ГРАФОМ АЛГОРИТМІВ З ВИКОРИСТАННЯМ ТЕХНОЛОГІЇ GPGPU. Вісник Національного університету "Львівська політехніка", (745), 124-130. URL: https://ena.lpnu.ua/handle/ntb/20127 (Дата звернення: 16 Жовтня 2024)
dc.relation.references7. Christian Szegedy, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke, and Andrew Rabinovich. 2015. Going deeper with convolutions. In 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 1–9. DOI: 10.1109/CVPR.2015.7298594
dc.relation.references8. Maher G. M. Abdolrasol, S. M. Suhail Hussain, Taha Selim Ustun, Mahidur R. Sarker, Mahammad A. Hannan, Ramizi Mohamed, Jamal Abd Ali, Saad Mekhilef, and Abdalrhman Milad. 2021. Artificial Neural Networks Based Optimization Techniques: A Review. Electronics 10, 21 (2021). DOI: 10.3390/electronics10212689
dc.relation.references9. Feed-forward propagation from scratch in Python. Online resource. URI: https://subscription. packtpub.com/book/data/9781789346640/1/ch01lvl1sec05/feed-forward-propagation-from-scratch-in-python
dc.relation.references10. Фастюк, Є., і Гузинець, Н. 2024. ОПТИМІЗАЦІЯ АЛГОРИТМУ РОБОТИ НЕЙРОННОЇ МЕРЕЖІ ЗА РАХУНОК ЗМЕНШЕННЯ ШИРИНИ ПОТОКОВОГО ГРАФА АЛГОРИТМУ. Матеріали конференцій МЦНД,(31.05.2024; Черкаси, Україна), 214–216. DOI: 10.62731/mcnd-31.05.2024.006
dc.relation.references11. Fastiuk, Y., Bachynskyy, R., and Huzynets, N. 2021. Methods of Vehicle Recognition and Detecting Traffic Rules Violations on Motion Picture Based on OpenCV Framework. Advances in Cyber-Physical Systems, 6(2), 105-111.DOI: 10.23939/acps2021.02.105
dc.relation.referencesen1. Zhuang Liu, Jianguo Li, Zhiqiang Shen, Gao Huang, Shoumeng Yan, and Changshui Zhang. 2017. Learning Efficient Convolutional Networks through Network Slimming. CoRR abs/1708.06519, (2017). DOI:10.48550/arXiv.1708.06519
dc.relation.referencesen2. Vivienne Sze, Yu-Hsin Chen, Tien-Ju Yang, and Joel S. Emer. 2017. Efficient Processing of Deep Neural Networks: A Tutorial and Survey. CoRR abs/1703.09039, (2017). DOI: 10.48550/arXiv.1703.09039
dc.relation.referencesen3. Hengyuan Hu, Rui Peng, Yu-Wing Tai, and Chi-Keung Tang. 2016. Network Trimming: A Data-Driven Neuron Pruning Approach towards Efficient Deep Architectures. CoRR abs/1607.03250, (2016). DOI:10.48550/arXiv.1607.03250
dc.relation.referencesen4. Song Han, Jeff Pool, John Tran, and William J. Dally. 2015. Learning both Weights and Connections for Efficient Neural Networks. CoRR abs/1506.02626, (2015). DOI: 10.48550/arXiv.1506.02626
dc.relation.referencesen5. Melnyk, A.O., Yakovlieva, I.D. i Yushchenko, V.Yu. 2010. POBUDOVA TA MATRYChNE PODANNIa POTOKOVOHO HRAFA ALHORYTMU. Visnyk Vinnytskoho politekhnichnoho instytutu. 3 (Lystop. 2010), 93–99. URL: https://visnyk.vntu.edu.ua/index.php/visnyk/article/view/757 (Date of appeal: 16 Zhovtnia 2024)
dc.relation.referencesen6. Melnyk, A.O., i Mytsko, Yu.Ye. 2012. VYKONANNIa PODANYKh POTOKOVYM HRAFOM ALHORYTMIV Z VYKORYSTANNIaM TEKhNOLOHII GPGPU. Visnyk Natsionalnoho universytetu "Lvivska politekhnika", (745), 124-130. URL: https://ena.lpnu.ua/handle/ntb/20127 (Date of appeal: 16 Zhovtnia 2024)
dc.relation.referencesen7. Christian Szegedy, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke, and Andrew Rabinovich. 2015. Going deeper with convolutions. In 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 1–9. DOI: 10.1109/CVPR.2015.7298594
dc.relation.referencesen8. Maher G. M. Abdolrasol, S. M. Suhail Hussain, Taha Selim Ustun, Mahidur R. Sarker, Mahammad A. Hannan, Ramizi Mohamed, Jamal Abd Ali, Saad Mekhilef, and Abdalrhman Milad. 2021. Artificial Neural Networks Based Optimization Techniques: A Review. Electronics 10, 21 (2021). DOI: 10.3390/electronics10212689
dc.relation.referencesen9. Feed-forward propagation from scratch in Python. Online resource. URI: https://subscription. packtpub.com/book/data/9781789346640/1/ch01lvl1sec05/feed-forward-propagation-from-scratch-in-python
dc.relation.referencesen10. Fastiuk, Ye., i Huzynets, N. 2024. OPTYMIZATsIIa ALHORYTMU ROBOTY NEIRONNOI MEREZhI ZA RAKhUNOK ZMENShENNIa ShYRYNY POTOKOVOHO HRAFA ALHORYTMU. Materialy konferentsii MTsND,(31.05.2024; Cherkasy, Ukraine), 214–216. DOI: 10.62731/mcnd-31.05.2024.006
dc.relation.referencesen11. Fastiuk, Y., Bachynskyy, R., and Huzynets, N. 2021. Methods of Vehicle Recognition and Detecting Traffic Rules Violations on Motion Picture Based on OpenCV Framework. Advances in Cyber-Physical Systems, 6(2), 105-111.DOI: 10.23939/acps2021.02.105
dc.relation.urihttps://visnyk.vntu.edu.ua/index.php/visnyk/article/view/757
dc.relation.urihttps://ena.lpnu.ua/handle/ntb/20127
dc.relation.urihttps://subscription
dc.rights.holder© Національний університет „Львівська політехніка“, 2024
dc.rights.holder© Фастюк Є.І., Гузинець Н.В. 2024
dc.subjectнейронні мережі
dc.subjectпотоковий граф алгоритму
dc.subjectоптимізація алго- ритму
dc.subjectінтернет речей
dc.subjectNeural network
dc.subjectalgorithm flow graph
dc.subjectalgorithm optimization
dc.subjectIoT
dc.subject.udc004.02/.8
dc.titleОптимізація ширини потокового графа алгоритму у нейронних мережах для зменшення використання процесорних елементів на одноплатних комп’ютерах
dc.title.alternativeOptimization of the algorithm flow graph width in neural networks to reduce use of processor elements
dc.typeArticle

Files

Original bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
2024v6n2_Fastiuk_Y-Optimization_of_the_algorithm_232-241.pdf
Size:
1.21 MB
Format:
Adobe Portable Document Format

License bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
license.txt
Size:
1.78 KB
Format:
Plain Text
Description: