Optimization of object detection in closed space using mobile robotic systems with obstacle avoidance

dc.citation.epage48
dc.citation.issue2
dc.citation.journalTitleУкраїнський журнал інформаційних технологій
dc.citation.spage41
dc.citation.volume6
dc.contributor.affiliationНаціональний університет “Львівська політехніка”
dc.contributor.affiliationLviv Polytechnic National University
dc.contributor.authorБорківський, Б. П.
dc.contributor.authorТеслюк, В. М.
dc.contributor.authorBorkivskyi, B. P.
dc.contributor.authorTeslyuk, V. M.
dc.coverage.placenameЛьвів
dc.coverage.placenameLviv
dc.date.accessioned2025-11-19T08:25:59Z
dc.date.created2024-02-27
dc.date.issued2024-02-27
dc.description.abstractЗапропоновано використання модифікованого процесу навчання нейронної мережі з почерговим використанням декількох наборів даних для розпізнавання обʼєктів мобільними роботизованими системами у закритому просторі. Проаналізовано останні дослідження та підходи до вирішення проблеми розпізнавання точних контурів обʼєктів, виявлено ключові особливості декількох архітектур нейронних мереж. Виявлено нестачу даних про ефективність використання систем розпізнавання обʼєктів у мобільних роботизованих системах із обходом перешкод у закритому просторі. Розроблено метод, що ґрунтується на поєднанні нейронної мережі глибинного навчання для отримання точних контурів обʼєктів із візуальними даними перешкод у закритому середовищі. Застосовано архітектуру Deeplab для пошуку точних меж обʼєктів та використано для тренування моделей набори даних, які пропонують велику кількість анотацій для різноманітних сцен і категорій обʼєктів, а саме NYU Depth Dataset V2 і ADE20K. Здійснено експерименти для порівняння точності моделей UNet та Deeplab на різних наборах даних та їх комбінаціях для визначення доцільності використання запропонованого підходу для розвʼязання поставлених завдань. Визначено точність розпізнавання розробленого методу на рівні 86,9 % із використанням архітектури Deeplab та комбінації наборів даних ADE20K та NYU Depth. Подано результати у графічному вигляді розпізнавання обʼєктів у різних типах закритого простору із порівнянням точності розпізнавання різних підходів. Встановлено, що запропонована модифікація процесу навчання сприяє підвищенню точності розпізнавання перешкод у закритому просторі, надає оптимальніше рішення для навігаційної компоненти роботизованих систем за допомогою отримання інформації про точні обриси перешкод і побудови оптимальнішого шляху, і є ефективною для виконання поставлених завдань.
dc.description.abstractIntroducing neural network training process modification that uses combination of several datasets to optimize search of objects and obstacles using mobile robotic systems in a closed space. The study includes an analysis of papers and existing approaches aiming to solve the problem of object boundary detection and discovers the key features of several neural network architectures. During research, it was discovered that there is an insufficient amount of data about the effectiveness of using obstacle detection approaches by mobile robotics systems in a closed space. The presented method is a combination of a deep neural network-based approach for object boundary recognition and visual data for obstacles in a closed space. The base for the object detection neural network is a Deeplab model architecture, trained on the NYU Depth Dataset V2 and ADE20K datasets with extensive data for varying scene types and object categories along with corresponding annotations. The first one consists exclusively of indoor images with precise masks even for little objects, while the latter contains both indoor and outdoor images. The paper provides the results of several conducted experiments aiming to estimate the performance and feasibility of using the developed system for various tasks with the UNet and Deeplab architectures on different datasets. The experiments determined that the developed system built utilizing the Deeplab neural network architecture trained using the combination of ADE20K scene parsing dataset and NYU Depth indoor data dataset reached an accuracy of 86.9 % in multi-object segmentation. The visual results were presented to demonstrate the obstacle detection of various objects in a closed space and to compare object detection accuracy of several approaches in different situations, like an empty apartment with random obstacles on the way or a crowded study space at a university. The results show an excellent distinction between room sides like ceiling and floor, walls and doors, as well as detecting people and pieces of furniture. The benefits of this study constitute that the proposed neural network training process modification facilitates precise obstacle detection in a closed space by mobile robotic systems, provides more optimal solution to be used in navigation component of such systems by gathering information about precise objects outlines and constructing more optimal path to destination, and is an effective approach to solving the assigned tasks in various environments.
dc.format.extent41-48
dc.format.pages8
dc.identifier.citationBorkivskyi B. P. Optimization of object detection in closed space using mobile robotic systems with obstacle avoidance / B. P. Borkivskyi, V. M. Teslyuk // Ukrainian Journal of Information Technology. — Lviv : Lviv Politechnic Publishing House, 2024. — Vol 6. — No 2. — P. 41–48.
dc.identifier.citationenBorkivskyi B. P. Optimization of object detection in closed space using mobile robotic systems with obstacle avoidance / B. P. Borkivskyi, V. M. Teslyuk // Ukrainian Journal of Information Technology. — Lviv : Lviv Politechnic Publishing House, 2024. — Vol 6. — No 2. — P. 41–48.
dc.identifier.doidoi.org/10.23939/ujit2024.01.041
dc.identifier.urihttps://ena.lpnu.ua/handle/ntb/120431
dc.language.isoen
dc.publisherВидавництво Львівської політехніки
dc.publisherLviv Politechnic Publishing House
dc.relation.ispartofУкраїнський журнал інформаційних технологій, 2 (6), 2024
dc.relation.ispartofUkrainian Journal of Information Technology, 2 (6), 2024
dc.relation.references[1] Tsmots, I. G., Teslyuk, V. M., Opotiak, Yu. V., & Oliinyk, O. O. (2023). Development of the scheme and improvement of the motion control method of a group of mobile robotic platforms. Ukrainian Journal of Information Technology, 5(2), 97 104. https://doi.org/10.23939/ujit2023.02.097
dc.relation.references[2] Tsmots I.G., Opotiak Yu. V., Obelovska K.M., & Tesliuk S.V. (2024). Methods and means of conflict-free data exchange in the group of mobile robotic platforms. Ukrainian Journal of Information Tecnology, 6(1), 65 75. https://doi.org/10.23939/ujit2024.01.065 https://doi.org/10.23939/ujit2024.01.065
dc.relation.references[3] Huan Wang, Can Qin, Yue Bai, Yulun Zhang, & Yun Fu. (2022). Recent Advances on Neural Network Pruning at Initialization. https://doi.org/10.48550/arXiv.2103.06460
dc.relation.references[4] Borkivskyi, B. P., Teslyuk, V. M. (2023). Application of neural network tools for object recognition in mobile systems with obstacle avoidance. Scientific Bulletin of UNFU, 33(4), 84-89. https://doi.org/10.36930/40330412
dc.relation.references[5] Liang-Chieh Chen, George Papandreou, Iasonas Kokkinos, Kevin Murphy, & Alan L. Yuille. (2017). DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs. https://doi.org/10.48550/arXiv.1606.00915
dc.relation.references[6] Kaiming He, Xiangyu Zhang, Shaoqing Ren, & Jian Sun. (2015). Deep Residual Learning for Image Recognition. https://doi.org/10.48550/arXiv.1512.03385
dc.relation.references[7] Omar Mohamed Awad, Habib Hajimolahoseini, Michael Lim, Gurpreet Gosal, Walid Ahmed, Yang Liu, & Gordon Deng. (2023). Improving Resnet-9 Generalization Trained on Small Datasets. https://doi.org/10.48550/arXiv.2309.03965
dc.relation.references[8] François Chollet. (2017). Xception: Deep Learning with Depthwise Separable Convolutions. https://doi.org/10.48550/arXiv.1610.02357
dc.relation.references[9] Olaf Ronneberger, Philipp Fischer, & Thomas Brox. (2015). U-Net: Convolutional Networks for Biomedical Image Segmentation. https://doi.org/10.48550/arXiv.1505.04597
dc.relation.references[10] Gaurav Prasanna, John Rohit Ernest, Lalitha G, & Sathiya Narayanan. (2023). Squeeze Excitation Embedded Attention UNet for Brain Tumor Segmentation. https://doi.org/10.48550/arXiv.2305.07850
dc.relation.references[11] Hengshuang Zhao, Jianping Shi, Xiaojuan Qi, Xiaogang Wang, & Jiaya Jia. (2017). Pyramid Scene Parsing Network. https://doi.org/10.48550/arXiv.1612.01105
dc.relation.references[12] Li Wang, Dong Li, Han Liu, Jinzhang Peng, Lu Tian, & Yi Shan. (2021). Cross-Dataset Collaborative Learning for Semantic Segmentation in Autonomous Driving. https://doi.org/10.48550/arXiv.2103.11351
dc.relation.references[13] Jingdong Wang, Ke Sun, Tianheng Cheng, Borui Jiang, Chaorui Deng, Yang Zhao, Dong Liu, Yadong Mu, Mingkui Tan, Xinggang Wang, Wenyu Liu, & Bin Xiao. (2020). Deep High-Resolution Representation Learning for Visual Recognition. https://doi.org/10.48550/arXiv.1908.07919
dc.relation.references[14] Yixuan Zhou, Xuanhan Wang, Xing Xu, Lei Zhao, & Jingkuan Song. (2023). X-HRNet: Towards Lightweight Human Pose Estimation with Spatially Unidimensional Self-Attention. https://doi.org/10.48550/arXiv.2310.08042
dc.relation.references[15] Liu, G., Guo, Y., Jin, Q., Chen, G., Saheya, B., & Wu, C. (2024). A region of interest focused Triple UNet architecture for skin lesion segmentation. International Journal of Imaging Systems and Technology, 34(3). https://doi.org/10.48550/arXiv.2311.12581
dc.relation.references[16] Vinh Quoc Luu, Duy Khanh Le, Huy Thanh Nguyen, Minh Thanh Nguyen, Thinh Tien Nguyen, & Vinh Quang Dinh. (2024). Semi-Supervised Semantic Segmentation using Redesigned Self-Training for White Blood Cells. https://doi.org/10.48550/arXiv.2401.07278
dc.relation.references[17] Liang-Chieh Chen, George Papandreou, Florian Schroff, & Hartwig Adam. (2017). Rethinking Atrous Convolution for Semantic Image Segmentation. https://doi.org/10.48550/arXiv.1706.05587
dc.relation.references[18] Silberman, N., Hoiem, D., Kohli, P., & Fergus, R. (2012). Indoor Segmentation and Support Inference from RGBD Images. In Computer Vision - ECCV 2012 (pp. 746-760). Springer Berlin Heidelberg. https://doi.org/10.1007/978-3-642-33715-4_54
dc.relation.references[19] Zhou, B., Zhao, H., Puig, X., Fidler, S., Barriuso, A., & Torralba, A. (2017). Scene Parsing through ADE20K Dataset. In 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (pp. 5122-5130). https://doi.org/10.1109/CVPR.2017.544
dc.relation.referencesen[1] Tsmots, I. G., Teslyuk, V. M., Opotiak, Yu. V., & Oliinyk, O. O. (2023). Development of the scheme and improvement of the motion control method of a group of mobile robotic platforms. Ukrainian Journal of Information Technology, 5(2), 97 104. https://doi.org/10.23939/ujit2023.02.097
dc.relation.referencesen[2] Tsmots I.G., Opotiak Yu. V., Obelovska K.M., & Tesliuk S.V. (2024). Methods and means of conflict-free data exchange in the group of mobile robotic platforms. Ukrainian Journal of Information Tecnology, 6(1), 65 75. https://doi.org/10.23939/ujit2024.01.065 https://doi.org/10.23939/ujit2024.01.065
dc.relation.referencesen[3] Huan Wang, Can Qin, Yue Bai, Yulun Zhang, & Yun Fu. (2022). Recent Advances on Neural Network Pruning at Initialization. https://doi.org/10.48550/arXiv.2103.06460
dc.relation.referencesen[4] Borkivskyi, B. P., Teslyuk, V. M. (2023). Application of neural network tools for object recognition in mobile systems with obstacle avoidance. Scientific Bulletin of UNFU, 33(4), 84-89. https://doi.org/10.36930/40330412
dc.relation.referencesen[5] Liang-Chieh Chen, George Papandreou, Iasonas Kokkinos, Kevin Murphy, & Alan L. Yuille. (2017). DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs. https://doi.org/10.48550/arXiv.1606.00915
dc.relation.referencesen[6] Kaiming He, Xiangyu Zhang, Shaoqing Ren, & Jian Sun. (2015). Deep Residual Learning for Image Recognition. https://doi.org/10.48550/arXiv.1512.03385
dc.relation.referencesen[7] Omar Mohamed Awad, Habib Hajimolahoseini, Michael Lim, Gurpreet Gosal, Walid Ahmed, Yang Liu, & Gordon Deng. (2023). Improving Resnet-9 Generalization Trained on Small Datasets. https://doi.org/10.48550/arXiv.2309.03965
dc.relation.referencesen[8] François Chollet. (2017). Xception: Deep Learning with Depthwise Separable Convolutions. https://doi.org/10.48550/arXiv.1610.02357
dc.relation.referencesen[9] Olaf Ronneberger, Philipp Fischer, & Thomas Brox. (2015). U-Net: Convolutional Networks for Biomedical Image Segmentation. https://doi.org/10.48550/arXiv.1505.04597
dc.relation.referencesen[10] Gaurav Prasanna, John Rohit Ernest, Lalitha G, & Sathiya Narayanan. (2023). Squeeze Excitation Embedded Attention UNet for Brain Tumor Segmentation. https://doi.org/10.48550/arXiv.2305.07850
dc.relation.referencesen[11] Hengshuang Zhao, Jianping Shi, Xiaojuan Qi, Xiaogang Wang, & Jiaya Jia. (2017). Pyramid Scene Parsing Network. https://doi.org/10.48550/arXiv.1612.01105
dc.relation.referencesen[12] Li Wang, Dong Li, Han Liu, Jinzhang Peng, Lu Tian, & Yi Shan. (2021). Cross-Dataset Collaborative Learning for Semantic Segmentation in Autonomous Driving. https://doi.org/10.48550/arXiv.2103.11351
dc.relation.referencesen[13] Jingdong Wang, Ke Sun, Tianheng Cheng, Borui Jiang, Chaorui Deng, Yang Zhao, Dong Liu, Yadong Mu, Mingkui Tan, Xinggang Wang, Wenyu Liu, & Bin Xiao. (2020). Deep High-Resolution Representation Learning for Visual Recognition. https://doi.org/10.48550/arXiv.1908.07919
dc.relation.referencesen[14] Yixuan Zhou, Xuanhan Wang, Xing Xu, Lei Zhao, & Jingkuan Song. (2023). X-HRNet: Towards Lightweight Human Pose Estimation with Spatially Unidimensional Self-Attention. https://doi.org/10.48550/arXiv.2310.08042
dc.relation.referencesen[15] Liu, G., Guo, Y., Jin, Q., Chen, G., Saheya, B., & Wu, C. (2024). A region of interest focused Triple UNet architecture for skin lesion segmentation. International Journal of Imaging Systems and Technology, 34(3). https://doi.org/10.48550/arXiv.2311.12581
dc.relation.referencesen[16] Vinh Quoc Luu, Duy Khanh Le, Huy Thanh Nguyen, Minh Thanh Nguyen, Thinh Tien Nguyen, & Vinh Quang Dinh. (2024). Semi-Supervised Semantic Segmentation using Redesigned Self-Training for White Blood Cells. https://doi.org/10.48550/arXiv.2401.07278
dc.relation.referencesen[17] Liang-Chieh Chen, George Papandreou, Florian Schroff, & Hartwig Adam. (2017). Rethinking Atrous Convolution for Semantic Image Segmentation. https://doi.org/10.48550/arXiv.1706.05587
dc.relation.referencesen[18] Silberman, N., Hoiem, D., Kohli, P., & Fergus, R. (2012). Indoor Segmentation and Support Inference from RGBD Images. In Computer Vision - ECCV 2012 (pp. 746-760). Springer Berlin Heidelberg. https://doi.org/10.1007/978-3-642-33715-4_54
dc.relation.referencesen[19] Zhou, B., Zhao, H., Puig, X., Fidler, S., Barriuso, A., & Torralba, A. (2017). Scene Parsing through ADE20K Dataset. In 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (pp. 5122-5130). https://doi.org/10.1109/CVPR.2017.544
dc.relation.urihttps://doi.org/10.23939/ujit2023.02.097
dc.relation.urihttps://doi.org/10.23939/ujit2024.01.065
dc.relation.urihttps://doi.org/10.48550/arXiv.2103.06460
dc.relation.urihttps://doi.org/10.36930/40330412
dc.relation.urihttps://doi.org/10.48550/arXiv.1606.00915
dc.relation.urihttps://doi.org/10.48550/arXiv.1512.03385
dc.relation.urihttps://doi.org/10.48550/arXiv.2309.03965
dc.relation.urihttps://doi.org/10.48550/arXiv.1610.02357
dc.relation.urihttps://doi.org/10.48550/arXiv.1505.04597
dc.relation.urihttps://doi.org/10.48550/arXiv.2305.07850
dc.relation.urihttps://doi.org/10.48550/arXiv.1612.01105
dc.relation.urihttps://doi.org/10.48550/arXiv.2103.11351
dc.relation.urihttps://doi.org/10.48550/arXiv.1908.07919
dc.relation.urihttps://doi.org/10.48550/arXiv.2310.08042
dc.relation.urihttps://doi.org/10.48550/arXiv.2311.12581
dc.relation.urihttps://doi.org/10.48550/arXiv.2401.07278
dc.relation.urihttps://doi.org/10.48550/arXiv.1706.05587
dc.relation.urihttps://doi.org/10.1007/978-3-642-33715-4_54
dc.relation.urihttps://doi.org/10.1109/CVPR.2017.544
dc.rights.holder© Національний університет “Львівська політехніка”, 2024
dc.subjectоброблення зображень
dc.subjectзгорткова мережа
dc.subjectрозпізнавання образів
dc.subjectсегментація зображень
dc.subjectimage processing
dc.subjectconvolutional network
dc.subjectpattern recognition
dc.subjectimage segmentation
dc.titleOptimization of object detection in closed space using mobile robotic systems with obstacle avoidance
dc.title.alternativeМетод оптимізації розпізнавання об’єктів у закритому середовищі для мобільних роботизованих систем з обходом перешкод
dc.typeArticle

Files

Original bundle

Now showing 1 - 2 of 2
Loading...
Thumbnail Image
Name:
2024v6n2_Borkivskyi_B_P-Optimization_of_object_41-48.pdf
Size:
620.9 KB
Format:
Adobe Portable Document Format
Loading...
Thumbnail Image
Name:
2024v6n2_Borkivskyi_B_P-Optimization_of_object_41-48__COVER.png
Size:
1.74 MB
Format:
Portable Network Graphics

License bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
license.txt
Size:
1.81 KB
Format:
Plain Text
Description: