Operational basis of artificial neural networks and evaluation of hardware characteristics for its implementation
| dc.citation.epage | 138 | |
| dc.citation.issue | 2 | |
| dc.citation.journalTitle | Український журнал інформаційних технологій | |
| dc.citation.spage | 125 | |
| dc.citation.volume | 6 | |
| dc.contributor.affiliation | Національний університет “Львівська політехніка” | |
| dc.contributor.affiliation | Lviv Polytechnic National University | |
| dc.contributor.author | Цмоць, І. Г. | |
| dc.contributor.author | Опотяк, Ю. В. | |
| dc.contributor.author | Штогрінець, Б. В. | |
| dc.contributor.author | Мамчур, Т. Б. | |
| dc.contributor.author | Олійник, О. О. | |
| dc.contributor.author | Tsmots, I. G. | |
| dc.contributor.author | Opotyak, Yu. V. | |
| dc.contributor.author | Shtohrinets, B. V. | |
| dc.contributor.author | Mamchur, T. B. | |
| dc.contributor.author | Oliinyk, O. O. | |
| dc.coverage.placename | Львів | |
| dc.coverage.placename | Lviv | |
| dc.date.accessioned | 2025-11-19T08:25:54Z | |
| dc.date.created | 2024-02-27 | |
| dc.date.issued | 2024-02-27 | |
| dc.description.abstract | Проаналізовано завдання, які виконують інтелектуальні компоненти мобільних робототехнічних систем (МРС), і визначено їхні особливості. Визначено операційний базис для реалізації апаратних прискорювачів штучних нейронних мереж (ШНМ) і розділено його на три групи нейрооперацій: попереднього оброблення, процесорних та обчислення передатних функцій. Показано, що операції першої групи забезпечують перетворення вхідних даних до вигляду, який дасть найкращі результати, операції другої групи (множення, додавання, групового підсумовування, обчислення скалярного добутку, обчислення двовимірної згортки, множення матриці на вектор) виконуються безпосередньо у самій нейромережі у процесі навчання та функціонування, операції третьої групи забезпечують обчислення передатних функцій. Визначено, що спеціалізовані апаратні засоби інтелектуальних компонентів МРС повинні забезпечувати роботу в реальному часі та враховувати обмеження стосовно габаритів і енергоспоживання. Запропоновано розроблення спеціалізованих апаратних засобів інтелектуальних компонентів МРС здійснювати на основі інтегрованого підходу, який охоплює можливості сучасної елементної бази, паралельні методи оброблення даних, алгоритми та структури апаратних засобів і враховує вимоги конкретних застосувань. Для розроблення апаратних прискорювачів ШНМ вибрано принципи: модульності; однорідності та регулярності структури; локалізації та зменшення кількості зв’язків між елементами; конвеєризації та просторового паралелізму; узгодження інтенсивностей під час надходження вхідних даних, обчислення та видавання результатів; спеціалізації та адаптації апаратних структур до алгоритмів реалізації нейрооперацій. Запропоновано для оцінювання спеціалізованих апаратних засобів використовувати такі характеристики: витрати обладнання, час виконання операції та ефективність використання обладнання. Розроблено аналітичні вирази та імітаційну модель оцінювання характеристик спеціалізованих апаратних засобів, результати оцінювання яких використовують для вибору найефективнішої структури прискорювача й елементної для реалізації інтелектуальних компонентів МРС. Вдосконалено метод вибору елементної бази для реалізації інтелектуальних компонентів МРС, який завдяки врахуванню результатів оцінювання характеристик апаратних прискорювачів, вимог конкретного застосування та наявної елементної бази для їх реалізації забезпечує вибір найефективнішої з наявних. | |
| dc.description.abstract | The tasks performed by the intelligent components of mobile robotic systems (MRS) are analyzed and their features are determined. The operational basis for the implementation of hardware accelerators of artificial neural networks (ANN) is defined and divided into three groups of neurooperations: preprocessing, processing and calculation of transfer functions. It is shown that the operations of the first group provide the transformation of the input data to the form that will give the best results, the operations of the second group (multiplication, addition, group summation, calculation of the dot product, calculation of a two-dimensional convolution, multiplication of the matrix by a vector) are performed directly in the neural network itself in the process of training and functioning, operations of the third group provide calculation of transfer functions. It is determined that the specialized hardware of the intelligent components of the MRS should provide real-time operation and take into account the limitations in terms of dimensions and power consumption. It is proposed to carry out the development of specialized hardware of intelligent components of the MRS on the basis of an integrated approach, which covers the capabilities of the modern element base, parallel methods of data processing, algorithms and structures of hardware and takes into account the requirements of specific applications. For the development of hardware accelerators ANN, the following principles were chosen: modularity; homogeneity and regularity of the structure; localization and reduction of the number of connections between elements; pipeline and spatial parallelism; coordination of intensities in the receipt of input data, calculation and issuance of results; specialization and adaptation of hardware structures to algorithms for the implementation of neurooperations. It is proposed to use the following characteristics to evaluate specialized hardware: hardware resources, operation time and equipment utilization efficiency. Analytical expressions and a simulation model for evaluating the characteristics of specialized hardware have been developed, the results of which are used to select the most effective accelerator and elemental structure for the implementation of intelligent components of the MRS. The method of selection of the element base for the implementation of intelligent components of the MRS has been improved, which, by taking into account the results of the assessment of the characteristics of hardware accelerators, the requirements of a specific application and the existing element base for their implementation, ensures the selection of the most effective of the existing ones. | |
| dc.format.extent | 125-138 | |
| dc.format.pages | 14 | |
| dc.identifier.citation | Operational basis of artificial neural networks and evaluation of hardware characteristics for its implementation / I. G. Tsmots, Yu. V. Opotyak, B. V. Shtohrinets, T. B. Mamchur, O. O. Oliinyk // Ukrainian Journal of Information Technology. — Lviv : Lviv Politechnic Publishing House, 2024. — Vol 6. — No 2. — P. 125–138. | |
| dc.identifier.citationen | Operational basis of artificial neural networks and evaluation of hardware characteristics for its implementation / I. G. Tsmots, Yu. V. Opotyak, B. V. Shtohrinets, T. B. Mamchur, O. O. Oliinyk // Ukrainian Journal of Information Technology. — Lviv : Lviv Politechnic Publishing House, 2024. — Vol 6. — No 2. — P. 125–138. | |
| dc.identifier.doi | doi.org/10.23939/ujit2024.02.125 | |
| dc.identifier.uri | https://ena.lpnu.ua/handle/ntb/120425 | |
| dc.language.iso | en | |
| dc.publisher | Видавництво Львівської політехніки | |
| dc.publisher | Lviv Politechnic Publishing House | |
| dc.relation.ispartof | Український журнал інформаційних технологій, 2 (6), 2024 | |
| dc.relation.ispartof | Ukrainian Journal of Information Technology, 2 (6), 2024 | |
| dc.relation.references | 1. Lee, D., Park, M., Kim, H., & Jeon, M. (2021). AI-based mobile robot navigation using deep neural networks and reinforcement learning. IEEE Access, 9, 329-345. https://doi.org/10.1109/ACCESS.2021.3102345 | |
| dc.relation.references | 2. Soori, M., Arezoo, B., & Dastres, R. (2023). Artificial intelligence, machine learning and deep learning in advanced robotics: A review. Cognitive Robotics, 3, 54-70. https://doi.org/10.1016/j.cogr.2023.04.001 | |
| dc.relation.references | 3. Sze, V., Chen, Y.-H., Yang, T.-J., & Emer, J. S. (2017). Efficient processing of deep neural networks: A tutorial and survey. Proceedings of the IEEE, 105(12), 2295-2329. https://doi.org/10.1109/JPROC.2017.2761740 | |
| dc.relation.references | 4. Chen, J., Lin, K., Yang, L., & Ye, W. (2024). An energy-efficient edge processor for radar-based continuous fall detection utilizing mixed-radix FFT and updated blockwise computation. IEEE Internet of Things Journal, 11(19), 32117-32128. https://doi.org/10.1109/JIOT.2024.3422251 | |
| dc.relation.references | 5. Gu, J., & Joseph, R. (2024). Perspective Chapter: Dynamic timing enhanced computing for microprocessor and deep learning accelerators. In Deep Learning - Recent Findings and Research. https://doi.org/10.5772/intechopen.113296 | |
| dc.relation.references | 6. Sabareeshwari, V., & S. K. C. (2025). Artificial Intelligence in Communications. In Z. Hammouch & O. Jamil (Eds.), Convergence of Antenna Technologies, Electronics, and AI (pp. 209-238). IGI Global. https://doi.org/10.4018/979-8-3693-3775-2.ch008 | |
| dc.relation.references | 7. Li, Z., Liu, F., Yang, W., Peng, S., & Zhou, J. (2020). A survey of convolutional neural networks: Analysis, applications, and prospects. IEEE Transactions on Neural Networks and Learning Systems, 31(7), 2227-2249. https://doi.org/10.1109/TNNLS.2020.2996649 | |
| dc.relation.references | 8. Hussain, M. (2024). Sustainable machine vision for Industry 4.0: A comprehensive review of convolutional neural networks and hardware accelerators in computer vision. AI, 5(3), 1324-1356. https://doi.org/10.3390/ai5030064 | |
| dc.relation.references | 9. Wang, C., & Luo, Z. (2022). A review of the optimal design of neural networks based on FPGA. Applied Sciences, 12(21), 10771. https://doi.org/10.3390/app122110771 | |
| dc.relation.references | 10. Gilbert, M., Wu, Y. N., Emer, J. S., & Sze, V. (2024). LoopTree: Exploring the fused-layer dataflow accelerator design space. IEEE Transactions on Circuits and Systems for Artificial Intelligence, 1(1), 97-111. https://doi.org/10.1109/TCASAI.2024.3461716 | |
| dc.relation.references | 11. Taherdoost, H. (2023). Deep learning and neural networks: Decision-making implications. Symmetry, 15(9), 1723. https://doi.org/10.3390/sym15091723 | |
| dc.relation.references | 12. Xu, Y., Luo, J., & Sun, W. (2024). Flare: An FPGA-based full precision low power CNN accelerator with reconfigurable structure. Sensors, 24, 2239. https://doi.org/10.3390/s24072239 | |
| dc.relation.references | 13. Li, Z., Liu, F., Yang, W., Peng, S., & Zhou, J. (2022). A survey of convolutional neural networks: Analysis, applications, and prospects. IEEE Transactions on Neural Networks and Learning Systems, 33(12), 6999-7019. https://doi.org/10.1109/TNNLS.2021.3084827 | |
| dc.relation.references | 14. Goel, S., Kedia, R., Sen, R., & Balakrishnan, M. (2024). EXPRESS: A framework for execution time prediction of concurrent CNNs on Xilinx DPU accelerator. ACM Transactions on Embedded Computing Systems, 24(1), 11. https://doi.org/10.1145/3697835 | |
| dc.relation.references | 15. Tsmots, I., Rabyk, V., Kryvinska, N., Yatsymirskyy, M., & Teslyuk, V. (2022). Design of processors for fast cosine and sine Fourier transforms. Circuits, Systems, and Signal Processing, 41(9), 4928-4951. https://doi.org/10.1007/s00034-022-02012-8 | |
| dc.relation.references | 16. Tsmots, I., Teslyuk, V., Kryvinska, N., Skorokhoda, O., & Kazymyra, I. (2023). Development of a generalized model for parallel-streaming neural element and structures for scalar product calculation devices. Journal of Supercomputing, 79(5), 4820-4846. https://doi.org/10.1007/s11227-022-04838-0 | |
| dc.relation.references | 17. Цмоць, І. Г., Скорохода, О. В., & Теслюк, В. М. (2013). Пристрій для обчислення скалярного добутку. Патент України на винахід №101922, 13.05.2013, Бюл. №9. | |
| dc.relation.referencesen | 1. Lee, D., Park, M., Kim, H., & Jeon, M. (2021). AI-based mobile robot navigation using deep neural networks and reinforcement learning. IEEE Access, 9, 329-345. https://doi.org/10.1109/ACCESS.2021.3102345 | |
| dc.relation.referencesen | 2. Soori, M., Arezoo, B., & Dastres, R. (2023). Artificial intelligence, machine learning and deep learning in advanced robotics: A review. Cognitive Robotics, 3, 54-70. https://doi.org/10.1016/j.cogr.2023.04.001 | |
| dc.relation.referencesen | 3. Sze, V., Chen, Y.-H., Yang, T.-J., & Emer, J. S. (2017). Efficient processing of deep neural networks: A tutorial and survey. Proceedings of the IEEE, 105(12), 2295-2329. https://doi.org/10.1109/JPROC.2017.2761740 | |
| dc.relation.referencesen | 4. Chen, J., Lin, K., Yang, L., & Ye, W. (2024). An energy-efficient edge processor for radar-based continuous fall detection utilizing mixed-radix FFT and updated blockwise computation. IEEE Internet of Things Journal, 11(19), 32117-32128. https://doi.org/10.1109/JIOT.2024.3422251 | |
| dc.relation.referencesen | 5. Gu, J., & Joseph, R. (2024). Perspective Chapter: Dynamic timing enhanced computing for microprocessor and deep learning accelerators. In Deep Learning - Recent Findings and Research. https://doi.org/10.5772/intechopen.113296 | |
| dc.relation.referencesen | 6. Sabareeshwari, V., & S. K. C. (2025). Artificial Intelligence in Communications. In Z. Hammouch & O. Jamil (Eds.), Convergence of Antenna Technologies, Electronics, and AI (pp. 209-238). IGI Global. https://doi.org/10.4018/979-8-3693-3775-2.ch008 | |
| dc.relation.referencesen | 7. Li, Z., Liu, F., Yang, W., Peng, S., & Zhou, J. (2020). A survey of convolutional neural networks: Analysis, applications, and prospects. IEEE Transactions on Neural Networks and Learning Systems, 31(7), 2227-2249. https://doi.org/10.1109/TNNLS.2020.2996649 | |
| dc.relation.referencesen | 8. Hussain, M. (2024). Sustainable machine vision for Industry 4.0: A comprehensive review of convolutional neural networks and hardware accelerators in computer vision. AI, 5(3), 1324-1356. https://doi.org/10.3390/ai5030064 | |
| dc.relation.referencesen | 9. Wang, C., & Luo, Z. (2022). A review of the optimal design of neural networks based on FPGA. Applied Sciences, 12(21), 10771. https://doi.org/10.3390/app122110771 | |
| dc.relation.referencesen | 10. Gilbert, M., Wu, Y. N., Emer, J. S., & Sze, V. (2024). LoopTree: Exploring the fused-layer dataflow accelerator design space. IEEE Transactions on Circuits and Systems for Artificial Intelligence, 1(1), 97-111. https://doi.org/10.1109/TCASAI.2024.3461716 | |
| dc.relation.referencesen | 11. Taherdoost, H. (2023). Deep learning and neural networks: Decision-making implications. Symmetry, 15(9), 1723. https://doi.org/10.3390/sym15091723 | |
| dc.relation.referencesen | 12. Xu, Y., Luo, J., & Sun, W. (2024). Flare: An FPGA-based full precision low power CNN accelerator with reconfigurable structure. Sensors, 24, 2239. https://doi.org/10.3390/s24072239 | |
| dc.relation.referencesen | 13. Li, Z., Liu, F., Yang, W., Peng, S., & Zhou, J. (2022). A survey of convolutional neural networks: Analysis, applications, and prospects. IEEE Transactions on Neural Networks and Learning Systems, 33(12), 6999-7019. https://doi.org/10.1109/TNNLS.2021.3084827 | |
| dc.relation.referencesen | 14. Goel, S., Kedia, R., Sen, R., & Balakrishnan, M. (2024). EXPRESS: A framework for execution time prediction of concurrent CNNs on Xilinx DPU accelerator. ACM Transactions on Embedded Computing Systems, 24(1), 11. https://doi.org/10.1145/3697835 | |
| dc.relation.referencesen | 15. Tsmots, I., Rabyk, V., Kryvinska, N., Yatsymirskyy, M., & Teslyuk, V. (2022). Design of processors for fast cosine and sine Fourier transforms. Circuits, Systems, and Signal Processing, 41(9), 4928-4951. https://doi.org/10.1007/s00034-022-02012-8 | |
| dc.relation.referencesen | 16. Tsmots, I., Teslyuk, V., Kryvinska, N., Skorokhoda, O., & Kazymyra, I. (2023). Development of a generalized model for parallel-streaming neural element and structures for scalar product calculation devices. Journal of Supercomputing, 79(5), 4820-4846. https://doi.org/10.1007/s11227-022-04838-0 | |
| dc.relation.referencesen | 17. Tsmots, I. H., Skorokhoda, O. V., & Tesliuk, V. M. (2013). Prystrii dlia obchyslennia skaliarnoho dobutku. Patent Ukrainy na vynakhid No 101922, 13.05.2013, Bull. No 9. | |
| dc.relation.uri | https://doi.org/10.1109/ACCESS.2021.3102345 | |
| dc.relation.uri | https://doi.org/10.1016/j.cogr.2023.04.001 | |
| dc.relation.uri | https://doi.org/10.1109/JPROC.2017.2761740 | |
| dc.relation.uri | https://doi.org/10.1109/JIOT.2024.3422251 | |
| dc.relation.uri | https://doi.org/10.5772/intechopen.113296 | |
| dc.relation.uri | https://doi.org/10.4018/979-8-3693-3775-2.ch008 | |
| dc.relation.uri | https://doi.org/10.1109/TNNLS.2020.2996649 | |
| dc.relation.uri | https://doi.org/10.3390/ai5030064 | |
| dc.relation.uri | https://doi.org/10.3390/app122110771 | |
| dc.relation.uri | https://doi.org/10.1109/TCASAI.2024.3461716 | |
| dc.relation.uri | https://doi.org/10.3390/sym15091723 | |
| dc.relation.uri | https://doi.org/10.3390/s24072239 | |
| dc.relation.uri | https://doi.org/10.1109/TNNLS.2021.3084827 | |
| dc.relation.uri | https://doi.org/10.1145/3697835 | |
| dc.relation.uri | https://doi.org/10.1007/s00034-022-02012-8 | |
| dc.relation.uri | https://doi.org/10.1007/s11227-022-04838-0 | |
| dc.rights.holder | © Національний університет “Львівська політехніка”, 2024 | |
| dc.subject | штучна нейронна мережа | |
| dc.subject | операційний базис | |
| dc.subject | спеціалізовані апаратні засоби | |
| dc.subject | метод вибору елементної бази | |
| dc.subject | паралельні алгоритми | |
| dc.subject | імітаційна модель | |
| dc.subject | реальний час | |
| dc.subject | елементна база | |
| dc.subject | artificial neural network | |
| dc.subject | operational basis | |
| dc.subject | specialized hardware | |
| dc.subject | method of selection of element base | |
| dc.subject | parallel algorithms | |
| dc.subject | simulation model | |
| dc.subject | real time | |
| dc.subject | element base | |
| dc.title | Operational basis of artificial neural networks and evaluation of hardware characteristics for its implementation | |
| dc.title.alternative | Операційний базис штучних нейронних мереж та оцінювання характеристик апаратних засобів для його реалізації | |
| dc.type | Article |
Files
Original bundle
License bundle
1 - 1 of 1