Використання штучних нейронних мереж у системі управління мобільною робототехнічною платформою

dc.citation.epage40
dc.citation.issue2
dc.citation.journalTitleУкраїнський журнал інформаційних технологій
dc.citation.spage30
dc.citation.volume6
dc.contributor.affiliationНаціональний університет “Львівська політехніка”
dc.contributor.affiliationLviv Polytechnic National University
dc.contributor.authorКазарян, А. Г.
dc.contributor.authorМаксимів, О. П.
dc.contributor.authorТкачук, К. І.
dc.contributor.authorПарцей, Р. В.
dc.contributor.authorТеслюк, С. В.
dc.contributor.authorKazarian, A. G.
dc.contributor.authorMaksymiv, O. P.
dc.contributor.authorTkachuk, K. I.
dc.contributor.authorParcei, R. V.
dc.contributor.authorTesliuk, S. V.
dc.coverage.placenameЛьвів
dc.coverage.placenameLviv
dc.date.accessioned2025-11-19T08:25:58Z
dc.date.created2024-02-27
dc.date.issued2024-02-27
dc.description.abstractВ епоху стрімкого технологічного розвитку, коли робототехніка й інтелектуальні системи стають невідʼємною частиною повсякденного життя, важливість розроблення систем управління мобільними робототехнічними платформами з використанням штучних нейронних мереж стає надзвичайно високою та актуальною. Для цієї галузі характерна не тільки істотна практична потреба, але й значний потенціал в інноваційному розвитку. Розвиток сучасної робототехніки та обчислювального інтелекту спонукав до створення ефективніших та адаптивніших мобільних робототехнічних систем. Розроблено систему та засоби для управління мобільними робототехнічними платформами із застосуванням штучних нейронних мереж (ШНМ). Імітуючи роботу нейронної системи, ШНМ дають змогу роботам не тільки реагувати на вхідні дані, але й вчитися вирішувати складні завдання та адаптуватися до змін у навколишньому середовищі. Однією з ключових проблем управління мобільними платформами є розроблення ефективних та інтуїтивно зрозумілих інтерфейсів, які б забезпечували зручну та надійну взаємодію користувача із робототехнічною системою. У цьому контексті використання жестів руки людиною є прогресивним та перспективним напрямом, оскільки це дає змогу створити максимально природний та ефективний спосіб управління. Основне завдання – створення ефективної та інтуїтивно зрозумілої системи, яка дає змогу операторові взаємодіяти із робототехнічною платформою за допомогою натуральних рухів та жестів. Розроблено програмне забезпечення із графічним інтерфейсом для розпізнавання жестів у реальному часі з використанням машинного навчання. Наукова новизна підходу полягає в інтеграції передових методів ШНМ для покращення якості управління та функціональності мобільних робототехнічних платформ. Основні аспекти наукової новизни охоплюють: інтеграцію зі штучним інтелектом; інтерактивність управління; розвиток мобільності робототехніки; адаптивність до різних завдань. Проблема, розглянута у цій роботі, полягає в необхідності розроблення ефективних та інтуїтивно зрозумілих систем управління мобільними робототехнічними платформами із використанням технологій розпізнавання жестів. На основі згорткових нейронних мереж розроблено програму, в результаті виконання якої визначаються положення руки та ідентифікація певних жестів, таких як рух вперед, назад, повороти направо та наліво, а також зупинка руху. Технологію можна використовувати у різних сферах людської діяльності (керування розумним будинком, створення технологічних рішень для людей з фізичними вадами, використання для підвищення інтерактивності в розважальних пристроях, удосконалення інтерфейсів взаємодії із технічним обладнанням).
dc.description.abstractIn the era of rapid technological advancement, when robotics and intelligent systems are becoming an integral part of everyday life, the importance of developing control systems for mobile robotic platforms using artificial neural networks becomes extremely high and relevant. This field not only has significant practical needs but also holds considerable potential for innovative development. The evolution of modern robotics and computational intelligence has necessitated the creation of more efficient and adaptive mobile robotic systems. A system and tools for controlling mobile robotic platforms using artificial neural networks (ANNs) have been developed in this work. By simulating the workings of a neural system, ANNs enable robots not only to react to input data but also to learn to solve complex tasks and adapt to changes in their environment. One of the key challenges in mobile platform control is the development of effective and intuitive interfaces that provide convenient and reliable interaction between the user and the robotic system. In this context, the use of hand gestures by humans represents a progressive and promising direction as it allows for the creation of the most natural and efficient means of control. The main task is to create an effective and intuitively understandable system that enables the operator to interact with the robotic platform using natural movements and gestures. As a result, software with a graphical interface for real–time gesture recognition using machine learning has been developed. The scientific novelty of the approach is the integration of advanced ANNs methods to improve the quality of control and functionality of mobile robotic platforms. The main aspects of scientific novelty include integration with artificial intelligence, interactivity of control, development of robotics mobility, and adaptability to various tasks. The problem addressed in this work lies in the need to develop effective and intuitive control systems for mobile robotic platforms using gesture recognition technologies. A program based on convolutional neural networks has been developed, which determines the position of the hand and identifies specific gestures such as forward, backward, right and left turns, as well as stopping movement. The implemented technology can be used in various fields of human activity (smart home control, technological solutions for people with physical disabilities, enhancing interactivity in entertainment devices, improving interfaces for interacting with technical equipment).
dc.format.extent30-40
dc.format.pages11
dc.identifier.citationВикористання штучних нейронних мереж у системі управління мобільною робототехнічною платформою / А. Г. Казарян, О. П. Максимів, К. І. Ткачук, Р. В. Парцей, С. В. Теслюк // Український журнал інформаційних технологій. — Львів : Видавництво Львівської політехніки, 2024. — Том 6. — № 2. — С. 30–40.
dc.identifier.citationenArtificial neural networks implementation in mobile robotic platform control system / A. G. Kazarian, O. P. Maksymiv, K. I. Tkachuk, R. V. Parcei, S. V. Tesliuk // Ukrainian Journal of Information Technology. — Lviv : Lviv Politechnic Publishing House, 2024. — Vol 6. — No 2. — P. 30–40.
dc.identifier.doidoi.org/10.23939/ujit2024.02.030
dc.identifier.urihttps://ena.lpnu.ua/handle/ntb/120430
dc.language.isouk
dc.publisherВидавництво Львівської політехніки
dc.publisherLviv Politechnic Publishing House
dc.relation.ispartofУкраїнський журнал інформаційних технологій, 2 (6), 2024
dc.relation.ispartofUkrainian Journal of Information Technology, 2 (6), 2024
dc.relation.references1. Chen, D., Li, S., & Wu, Q. (2021). A novel supertwisting zeroing neural network with application to mobile robot manipulators. IEEE Transactions on Neural Networks and Learning Systems, 32(4), 1776–1787. https://doi.org/10.1109/TNNLS.2020.2991088
dc.relation.references2. Lee, M.-F. R., & Chien, T.-W. (2020). Artificial intelligence and internet of things for robotic disaster response. 2020 International Conference on Advanced Robotics and Intelligent Systems (ARIS), Taipei, Taiwan, 1–6. https://doi.org/10.1109/ARIS50834.2020.9205794
dc.relation.references3. Magrin, C. E., & Todt, E. (2019). Multi-sensor fusion method based on artificial neural network for mobile robot self-localization. 2019 Latin American Robotics Symposium (LARS), 2019 Brazilian Symposium on Robotics (SBR), and 2019 Workshop on Robotics in Education (WRE), Rio Grande, Brazil, 138–143. https://doi.org/10.1109/LARS-SBR-WRE48964.2019.00032
dc.relation.references4. Kwiecień, J. (2022). Selected topics of artificial intelligence in robotics. 2022 7th International Conference on Mechanical Engineering and Robotics Research (ICMERR), Krakow, Poland, 40-44. https://doi.org/10.1109/ICMERR56497.2022.10097788
dc.relation.references5. Ostrovka, D., Stasenko, D., & Teslyuk, V. (2022). Autonomous intelligent control system for mobile robotic system. In Proceedings of the IEEE 17th International Conference on Computer Science and Information Technologies, Lviv, Ukraine, 206–209. https://doi.org/10.1109/CSIT56902.2022.10000459
dc.relation.references6. Tsmots, I., Tkachenko, R., Teslyuk, V., Opotyak, Y., & Rabyk, V. (2022). Hardware components for nonlinear neuro-like data protection in mobile smart systems. In Proceedings of the IEEE 17th International Conference on Computer Science and Information Technologies, Lviv, Ukraine, 198–202. https://doi.org/10.1109/CSIT56902.2022.10000636
dc.relation.references7. Posture and gesture recognition for human-computer interaction. (n.d.). IntechOpen. https://www.intechopen.com/chapters/8712 (Accessed: 22.10.2023).
dc.relation.references8. Pavlovic, V. I., Sharma, R., & Huang, T. S. (1997). Visual interpretation of hand gestures for human-computer interaction: A review. IEEE Transactions on Pattern Analysis and Machine Intelligence, 19(7), 683-695. https://doi.org/10.1109/34.598226
dc.relation.references9. Recognition and classification of sign language. (n.d.). Scielo. Retrieved from: http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462018000100271 (Accessed: 11.11.2023).
dc.relation.references10. Evergreens. (n.d.). Convolutional neural networks: Explained in simple words. Retrieved from: https://evergreens.com.ua/ua/articles/cnn.html
dc.relation.references11. Makantasis, K., Karantzalos, K., Doulamis, A., & Doulamis, N. (2015). Deep supervised learning for hyperspectral data classification through convolutional neural networks. In Proceedings of the 2015 IEEE International Geoscience and Remote Sensing Symposium (IGARSS), Milan, Italy, 4959–4962. https://doi.org/10.1109/IGARSS.2015.7326945
dc.relation.references12. Zinko, R., Teslyuk, V., & Seneta, M. (2023). The evaluation of factors that influence the route formation of the mobile rescue robot. Proceedings of the 7th International Conference on Computational Linguistics and Intelligent Systems. Kharkiv, Ukraine. In CEUR Workshop Proceedings, 3403, 570‑581.
dc.relation.references13. Borkivskyi, B. P., & Teslyuk, V. M. (2023). Application of neural network tools for object recognition in mobile systems with obstacle avoidance. Scientific Bulletin of UNFU, 33(4), 84-89. https://doi.org/10.36930/4033041
dc.relation.references14. Teslyuk, V., Borkivskyi, B., & Alshawabkeh, H. A. (2022). Models and means of object recognition using artificial neural networks. Proceedings of the 4th International Workshop MoMLeT&DS 2022. Leiden-Lviv, the Netherlands-Ukraine. In CEUR Workshop Proceedings, Vol. 3312, 241‑251.
dc.relation.references15. Zinko, R. V., Korendiy, V. M., Tesliuk, V. M., Demchuk, I. B., Kazymyra, I. Ya., & Ostrovka, D. V. (2022). Frequency analysis of the shaft of the electromechanical drive of the small mobile robot. Industrial Process Automation in Engineering and Instrumentation, 56, 27‑38. https://doi.org/10.23939/istcipa2022.56.027
dc.relation.references16. Zinko, R. V., Teslyuk, V. M., Kazymyra, I. Ya., & Ostrovka, D. V. (2022). A model for improving the strength characteristics of the electromechanical drive of a mobile robot. Ukrainian Journal of Information Technology, 4(2), 80–85. https://doi.org/10.23939/ujit2022.02.080
dc.relation.referencesen1. Chen, D., Li, S., & Wu, Q. (2021). A novel supertwisting zeroing neural network with application to mobile robot manipulators. IEEE Transactions on Neural Networks and Learning Systems, 32(4), 1776–1787. https://doi.org/10.1109/TNNLS.2020.2991088
dc.relation.referencesen2. Lee, M.-F. R., & Chien, T.-W. (2020). Artificial intelligence and internet of things for robotic disaster response. 2020 International Conference on Advanced Robotics and Intelligent Systems (ARIS), Taipei, Taiwan, 1–6. https://doi.org/10.1109/ARIS50834.2020.9205794
dc.relation.referencesen3. Magrin, C. E., & Todt, E. (2019). Multi-sensor fusion method based on artificial neural network for mobile robot self-localization. 2019 Latin American Robotics Symposium (LARS), 2019 Brazilian Symposium on Robotics (SBR), and 2019 Workshop on Robotics in Education (WRE), Rio Grande, Brazil, 138–143. https://doi.org/10.1109/LARS-SBR-WRE48964.2019.00032
dc.relation.referencesen4. Kwiecień, J. (2022). Selected topics of artificial intelligence in robotics. 2022 7th International Conference on Mechanical Engineering and Robotics Research (ICMERR), Krakow, Poland, 40-44. https://doi.org/10.1109/ICMERR56497.2022.10097788
dc.relation.referencesen5. Ostrovka, D., Stasenko, D., & Teslyuk, V. (2022). Autonomous intelligent control system for mobile robotic system. In Proceedings of the IEEE 17th International Conference on Computer Science and Information Technologies, Lviv, Ukraine, 206–209. https://doi.org/10.1109/CSIT56902.2022.10000459
dc.relation.referencesen6. Tsmots, I., Tkachenko, R., Teslyuk, V., Opotyak, Y., & Rabyk, V. (2022). Hardware components for nonlinear neuro-like data protection in mobile smart systems. In Proceedings of the IEEE 17th International Conference on Computer Science and Information Technologies, Lviv, Ukraine, 198–202. https://doi.org/10.1109/CSIT56902.2022.10000636
dc.relation.referencesen7. Posture and gesture recognition for human-computer interaction. (n.d.). IntechOpen. https://www.intechopen.com/chapters/8712 (Accessed: 22.10.2023).
dc.relation.referencesen8. Pavlovic, V. I., Sharma, R., & Huang, T. S. (1997). Visual interpretation of hand gestures for human-computer interaction: A review. IEEE Transactions on Pattern Analysis and Machine Intelligence, 19(7), 683-695. https://doi.org/10.1109/34.598226
dc.relation.referencesen9. Recognition and classification of sign language. (n.d.). Scielo. Retrieved from: http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462018000100271 (Accessed: 11.11.2023).
dc.relation.referencesen10. Evergreens. (n.d.). Convolutional neural networks: Explained in simple words. Retrieved from: https://evergreens.com.ua/ua/articles/cnn.html
dc.relation.referencesen11. Makantasis, K., Karantzalos, K., Doulamis, A., & Doulamis, N. (2015). Deep supervised learning for hyperspectral data classification through convolutional neural networks. In Proceedings of the 2015 IEEE International Geoscience and Remote Sensing Symposium (IGARSS), Milan, Italy, 4959–4962. https://doi.org/10.1109/IGARSS.2015.7326945
dc.relation.referencesen12. Zinko, R., Teslyuk, V., & Seneta, M. (2023). The evaluation of factors that influence the route formation of the mobile rescue robot. Proceedings of the 7th International Conference on Computational Linguistics and Intelligent Systems. Kharkiv, Ukraine. In CEUR Workshop Proceedings, 3403, 570‑581.
dc.relation.referencesen13. Borkivskyi, B. P., & Teslyuk, V. M. (2023). Application of neural network tools for object recognition in mobile systems with obstacle avoidance. Scientific Bulletin of UNFU, 33(4), 84-89. https://doi.org/10.36930/4033041
dc.relation.referencesen14. Teslyuk, V., Borkivskyi, B., & Alshawabkeh, H. A. (2022). Models and means of object recognition using artificial neural networks. Proceedings of the 4th International Workshop MoMLeT&DS 2022. Leiden-Lviv, the Netherlands-Ukraine. In CEUR Workshop Proceedings, Vol. 3312, 241‑251.
dc.relation.referencesen15. Zinko, R. V., Korendiy, V. M., Tesliuk, V. M., Demchuk, I. B., Kazymyra, I. Ya., & Ostrovka, D. V. (2022). Frequency analysis of the shaft of the electromechanical drive of the small mobile robot. Industrial Process Automation in Engineering and Instrumentation, 56, 27‑38. https://doi.org/10.23939/istcipa2022.56.027
dc.relation.referencesen16. Zinko, R. V., Teslyuk, V. M., Kazymyra, I. Ya., & Ostrovka, D. V. (2022). A model for improving the strength characteristics of the electromechanical drive of a mobile robot. Ukrainian Journal of Information Technology, 4(2), 80–85. https://doi.org/10.23939/ujit2022.02.080
dc.relation.urihttps://doi.org/10.1109/TNNLS.2020.2991088
dc.relation.urihttps://doi.org/10.1109/ARIS50834.2020.9205794
dc.relation.urihttps://doi.org/10.1109/LARS-SBR-WRE48964.2019.00032
dc.relation.urihttps://doi.org/10.1109/ICMERR56497.2022.10097788
dc.relation.urihttps://doi.org/10.1109/CSIT56902.2022.10000459
dc.relation.urihttps://doi.org/10.1109/CSIT56902.2022.10000636
dc.relation.urihttps://www.intechopen.com/chapters/8712
dc.relation.urihttps://doi.org/10.1109/34.598226
dc.relation.urihttp://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1405-55462018000100271
dc.relation.urihttps://evergreens.com.ua/ua/articles/cnn.html
dc.relation.urihttps://doi.org/10.1109/IGARSS.2015.7326945
dc.relation.urihttps://doi.org/10.36930/4033041
dc.relation.urihttps://doi.org/10.23939/istcipa2022.56.027
dc.relation.urihttps://doi.org/10.23939/ujit2022.02.080
dc.rights.holder© Національний університет “Львівська політехніка”, 2024
dc.subjectавтоматизація
dc.subjectінтерфейси взаємодії
dc.subjectтехнологічні рішення
dc.subjectмашинне навчання
dc.subjectШНМ
dc.subjectautomation
dc.subjectinteraction interfaces
dc.subjecttechnological solutions
dc.subjectmachine learning
dc.subjectANNs
dc.titleВикористання штучних нейронних мереж у системі управління мобільною робототехнічною платформою
dc.title.alternativeArtificial neural networks implementation in mobile robotic platform control system
dc.typeArticle

Files

Original bundle

Now showing 1 - 2 of 2
Loading...
Thumbnail Image
Name:
2024v6n2_Kazarian_A_G-Artificial_neural_networks_30-40.pdf
Size:
1.16 MB
Format:
Adobe Portable Document Format
Loading...
Thumbnail Image
Name:
2024v6n2_Kazarian_A_G-Artificial_neural_networks_30-40__COVER.png
Size:
1.55 MB
Format:
Portable Network Graphics

License bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
license.txt
Size:
1.92 KB
Format:
Plain Text
Description: