Оптимізація ширини потокового графа алгоритму у нейронних мережах для зменшення використання процесорних елементів на одноплатних комп’ютерах
| dc.citation.epage | 241 | |
| dc.citation.issue | 2 | |
| dc.citation.journalTitle | Комп'ютерні системи та мережі | |
| dc.citation.spage | 232 | |
| dc.citation.volume | 6 | |
| dc.contributor.affiliation | Національний університет “Львівська політехніка” | |
| dc.contributor.affiliation | Національний університет “Львівська політехніка” | |
| dc.contributor.affiliation | Lviv Polytechnic National University | |
| dc.contributor.affiliation | Lviv Polytechnic National University | |
| dc.contributor.author | Фастюк, Є. І. | |
| dc.contributor.author | Гузинець, Н. В. | |
| dc.contributor.author | Fastiuk, Y. | |
| dc.contributor.author | Huzynets, N. | |
| dc.coverage.placename | Львів | |
| dc.coverage.placename | Lviv | |
| dc.date.accessioned | 2025-12-11T11:15:23Z | |
| dc.date.created | 2024-10-10 | |
| dc.date.issued | 2024-10-10 | |
| dc.description.abstract | У статті представлено метод оптимізації потокового графа алгоритму глибинної нейронної мережі для зменшення кількості процесорних елементів (ПЕ), необхідних для виконання алгоритму на одноплатних комп’ютерах. Запропонований підхід ґрунтується на використанні структурної матриці для оптимізації архітектури нейронної мережі без втрати продуктивності. Дослідження показало, що завдяки зменшенню ширини графа вдалося зменшити кількість процесорних елементів з 3 до 2, зберігаючи при цьому продуктивність мережі на рівні 75% ефективності. Цей підхід є важливим, оскільки дозволяє розширити можливості застосування нейронних мереж у вбудованих системах і IoT, підвищити ефективність використання обчислювальних ресурсів на пристроях з обмеженими обчислювальними можливостями, забезпечуючи ефективне використання обчислювальних ресурсів. | |
| dc.description.abstract | The article presents a method for optimizing the algorithm flow graph of a deep neural network to reduce the number of processor elements (PE) required for executing the algorithm on single-board computers. The proposed approach is based on the use of a structural matrix to optimize the neural network architecture without loss of performance. The research demonstrated that by reducing the width of the graph, the number of processor elements was reduced from 3 to 2, while maintaining network performance at 75% efficiency. This approach is significant as it expands the potential applications of neural networks in embedded systems and IoT, enhancing the efficiency of computational resource utilization on devices with limited computational capabilities, ensuring effective use of resources. | |
| dc.format.extent | 232-241 | |
| dc.format.pages | 10 | |
| dc.identifier.citation | Фастюк Є. І. Оптимізація ширини потокового графа алгоритму у нейронних мережах для зменшення використання процесорних елементів на одноплатних комп’ютерах / Є. І. Фастюк, Н. В. Гузинець // Комп'ютерні системи та мережі. — Львів : Видавництво Львівської політехніки, 2024. — Том 6. — № 2. — С. 232–241. | |
| dc.identifier.citation2015 | Фастюк Є. І., Гузинець Н. В. Оптимізація ширини потокового графа алгоритму у нейронних мережах для зменшення використання процесорних елементів на одноплатних комп’ютерах // Комп'ютерні системи та мережі, Львів. 2024. Том 6. № 2. С. 232–241. | |
| dc.identifier.citationenAPA | Fastiuk, Y., & Huzynets, N. (2024). Optymizatsiia shyryny potokovoho hrafa alhorytmu u neironnykh merezhakh dlia zmenshennia vykorystannia protsesornykh elementiv na odnoplatnykh kompiuterakh [Optimization of the algorithm flow graph width in neural networks to reduce use of processor elements]. Computer Systems and Networks, 6(2), 232-241. Lviv Politechnic Publishing House. [in Ukrainian]. | |
| dc.identifier.citationenCHICAGO | Fastiuk Y., Huzynets N. (2024) Optymizatsiia shyryny potokovoho hrafa alhorytmu u neironnykh merezhakh dlia zmenshennia vykorystannia protsesornykh elementiv na odnoplatnykh kompiuterakh [Optimization of the algorithm flow graph width in neural networks to reduce use of processor elements]. Computer Systems and Networks (Lviv), vol. 6, no 2, pp. 232-241 [in Ukrainian]. | |
| dc.identifier.doi | DOI: https://doi.org/10.23939/csn2024.02.232 | |
| dc.identifier.uri | https://ena.lpnu.ua/handle/ntb/123983 | |
| dc.language.iso | uk | |
| dc.publisher | Видавництво Львівської політехніки | |
| dc.publisher | Lviv Politechnic Publishing House | |
| dc.relation.ispartof | Комп'ютерні системи та мережі, 2 (6), 2024 | |
| dc.relation.ispartof | Computer Systems and Networks, 2 (6), 2024 | |
| dc.relation.references | 1. Zhuang Liu, Jianguo Li, Zhiqiang Shen, Gao Huang, Shoumeng Yan, and Changshui Zhang. 2017. Learning Efficient Convolutional Networks through Network Slimming. CoRR abs/1708.06519, (2017). DOI:10.48550/arXiv.1708.06519 | |
| dc.relation.references | 2. Vivienne Sze, Yu-Hsin Chen, Tien-Ju Yang, and Joel S. Emer. 2017. Efficient Processing of Deep Neural Networks: A Tutorial and Survey. CoRR abs/1703.09039, (2017). DOI: 10.48550/arXiv.1703.09039 | |
| dc.relation.references | 3. Hengyuan Hu, Rui Peng, Yu-Wing Tai, and Chi-Keung Tang. 2016. Network Trimming: A Data-Driven Neuron Pruning Approach towards Efficient Deep Architectures. CoRR abs/1607.03250, (2016). DOI:10.48550/arXiv.1607.03250 | |
| dc.relation.references | 4. Song Han, Jeff Pool, John Tran, and William J. Dally. 2015. Learning both Weights and Connections for Efficient Neural Networks. CoRR abs/1506.02626, (2015). DOI: 10.48550/arXiv.1506.02626 | |
| dc.relation.references | 5. Мельник, А.О., Яковлєва, І.Д. і Ющенко, В.Ю. 2010. ПОБУДОВА ТА МАТРИЧНЕ ПОДАННЯ ПОТОКОВОГО ГРАФА АЛГОРИТМУ. Вісник Вінницького політехнічного інституту. 3 (Листоп. 2010), 93–99. URL: https://visnyk.vntu.edu.ua/index.php/visnyk/article/view/757 (Дата звернення: 16 Жовтня 2024) | |
| dc.relation.references | 6. Мельник, А.О., і Мицко, Ю.Є. 2012. ВИКОНАННЯ ПОДАНИХ ПОТОКОВИМ ГРАФОМ АЛГОРИТМІВ З ВИКОРИСТАННЯМ ТЕХНОЛОГІЇ GPGPU. Вісник Національного університету "Львівська політехніка", (745), 124-130. URL: https://ena.lpnu.ua/handle/ntb/20127 (Дата звернення: 16 Жовтня 2024) | |
| dc.relation.references | 7. Christian Szegedy, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke, and Andrew Rabinovich. 2015. Going deeper with convolutions. In 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 1–9. DOI: 10.1109/CVPR.2015.7298594 | |
| dc.relation.references | 8. Maher G. M. Abdolrasol, S. M. Suhail Hussain, Taha Selim Ustun, Mahidur R. Sarker, Mahammad A. Hannan, Ramizi Mohamed, Jamal Abd Ali, Saad Mekhilef, and Abdalrhman Milad. 2021. Artificial Neural Networks Based Optimization Techniques: A Review. Electronics 10, 21 (2021). DOI: 10.3390/electronics10212689 | |
| dc.relation.references | 9. Feed-forward propagation from scratch in Python. Online resource. URI: https://subscription. packtpub.com/book/data/9781789346640/1/ch01lvl1sec05/feed-forward-propagation-from-scratch-in-python | |
| dc.relation.references | 10. Фастюк, Є., і Гузинець, Н. 2024. ОПТИМІЗАЦІЯ АЛГОРИТМУ РОБОТИ НЕЙРОННОЇ МЕРЕЖІ ЗА РАХУНОК ЗМЕНШЕННЯ ШИРИНИ ПОТОКОВОГО ГРАФА АЛГОРИТМУ. Матеріали конференцій МЦНД,(31.05.2024; Черкаси, Україна), 214–216. DOI: 10.62731/mcnd-31.05.2024.006 | |
| dc.relation.references | 11. Fastiuk, Y., Bachynskyy, R., and Huzynets, N. 2021. Methods of Vehicle Recognition and Detecting Traffic Rules Violations on Motion Picture Based on OpenCV Framework. Advances in Cyber-Physical Systems, 6(2), 105-111.DOI: 10.23939/acps2021.02.105 | |
| dc.relation.referencesen | 1. Zhuang Liu, Jianguo Li, Zhiqiang Shen, Gao Huang, Shoumeng Yan, and Changshui Zhang. 2017. Learning Efficient Convolutional Networks through Network Slimming. CoRR abs/1708.06519, (2017). DOI:10.48550/arXiv.1708.06519 | |
| dc.relation.referencesen | 2. Vivienne Sze, Yu-Hsin Chen, Tien-Ju Yang, and Joel S. Emer. 2017. Efficient Processing of Deep Neural Networks: A Tutorial and Survey. CoRR abs/1703.09039, (2017). DOI: 10.48550/arXiv.1703.09039 | |
| dc.relation.referencesen | 3. Hengyuan Hu, Rui Peng, Yu-Wing Tai, and Chi-Keung Tang. 2016. Network Trimming: A Data-Driven Neuron Pruning Approach towards Efficient Deep Architectures. CoRR abs/1607.03250, (2016). DOI:10.48550/arXiv.1607.03250 | |
| dc.relation.referencesen | 4. Song Han, Jeff Pool, John Tran, and William J. Dally. 2015. Learning both Weights and Connections for Efficient Neural Networks. CoRR abs/1506.02626, (2015). DOI: 10.48550/arXiv.1506.02626 | |
| dc.relation.referencesen | 5. Melnyk, A.O., Yakovlieva, I.D. i Yushchenko, V.Yu. 2010. POBUDOVA TA MATRYChNE PODANNIa POTOKOVOHO HRAFA ALHORYTMU. Visnyk Vinnytskoho politekhnichnoho instytutu. 3 (Lystop. 2010), 93–99. URL: https://visnyk.vntu.edu.ua/index.php/visnyk/article/view/757 (Date of appeal: 16 Zhovtnia 2024) | |
| dc.relation.referencesen | 6. Melnyk, A.O., i Mytsko, Yu.Ye. 2012. VYKONANNIa PODANYKh POTOKOVYM HRAFOM ALHORYTMIV Z VYKORYSTANNIaM TEKhNOLOHII GPGPU. Visnyk Natsionalnoho universytetu "Lvivska politekhnika", (745), 124-130. URL: https://ena.lpnu.ua/handle/ntb/20127 (Date of appeal: 16 Zhovtnia 2024) | |
| dc.relation.referencesen | 7. Christian Szegedy, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke, and Andrew Rabinovich. 2015. Going deeper with convolutions. In 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 1–9. DOI: 10.1109/CVPR.2015.7298594 | |
| dc.relation.referencesen | 8. Maher G. M. Abdolrasol, S. M. Suhail Hussain, Taha Selim Ustun, Mahidur R. Sarker, Mahammad A. Hannan, Ramizi Mohamed, Jamal Abd Ali, Saad Mekhilef, and Abdalrhman Milad. 2021. Artificial Neural Networks Based Optimization Techniques: A Review. Electronics 10, 21 (2021). DOI: 10.3390/electronics10212689 | |
| dc.relation.referencesen | 9. Feed-forward propagation from scratch in Python. Online resource. URI: https://subscription. packtpub.com/book/data/9781789346640/1/ch01lvl1sec05/feed-forward-propagation-from-scratch-in-python | |
| dc.relation.referencesen | 10. Fastiuk, Ye., i Huzynets, N. 2024. OPTYMIZATsIIa ALHORYTMU ROBOTY NEIRONNOI MEREZhI ZA RAKhUNOK ZMENShENNIa ShYRYNY POTOKOVOHO HRAFA ALHORYTMU. Materialy konferentsii MTsND,(31.05.2024; Cherkasy, Ukraine), 214–216. DOI: 10.62731/mcnd-31.05.2024.006 | |
| dc.relation.referencesen | 11. Fastiuk, Y., Bachynskyy, R., and Huzynets, N. 2021. Methods of Vehicle Recognition and Detecting Traffic Rules Violations on Motion Picture Based on OpenCV Framework. Advances in Cyber-Physical Systems, 6(2), 105-111.DOI: 10.23939/acps2021.02.105 | |
| dc.relation.uri | https://visnyk.vntu.edu.ua/index.php/visnyk/article/view/757 | |
| dc.relation.uri | https://ena.lpnu.ua/handle/ntb/20127 | |
| dc.relation.uri | https://subscription | |
| dc.rights.holder | © Національний університет „Львівська політехніка“, 2024 | |
| dc.rights.holder | © Фастюк Є.І., Гузинець Н.В. 2024 | |
| dc.subject | нейронні мережі | |
| dc.subject | потоковий граф алгоритму | |
| dc.subject | оптимізація алго- ритму | |
| dc.subject | інтернет речей | |
| dc.subject | Neural network | |
| dc.subject | algorithm flow graph | |
| dc.subject | algorithm optimization | |
| dc.subject | IoT | |
| dc.subject.udc | 004.02/.8 | |
| dc.title | Оптимізація ширини потокового графа алгоритму у нейронних мережах для зменшення використання процесорних елементів на одноплатних комп’ютерах | |
| dc.title.alternative | Optimization of the algorithm flow graph width in neural networks to reduce use of processor elements | |
| dc.type | Article |