Road users detection for traffic congestion classification
dc.citation.epage | 523 | |
dc.citation.issue | 2 | |
dc.citation.journalTitle | Математичне моделювання та комп'ютинг | |
dc.citation.spage | 518 | |
dc.contributor.affiliation | Університет Хасана ІІ Касабланки | |
dc.contributor.affiliation | Hassan II of Casablanca University | |
dc.contributor.author | Ес Свіді, А. | |
dc.contributor.author | Ардчір, С. | |
dc.contributor.author | Дайф, А. | |
dc.contributor.author | Азуазі, М. | |
dc.contributor.author | Es Swidi, A. | |
dc.contributor.author | Ardchir, S. | |
dc.contributor.author | Daif, A. | |
dc.contributor.author | Azouazi, M. | |
dc.coverage.placename | Львів | |
dc.coverage.placename | Lviv | |
dc.date.accessioned | 2025-03-04T10:28:12Z | |
dc.date.created | 2023-02-28 | |
dc.date.issued | 2023-02-28 | |
dc.description.abstract | Однією з важливих проблем, від якою страждають жителі міст, є затори. Це робить їхнє життя більш напруженим, впливає на декілька сторін, включаючи економіку: витрачається час, паливо та продуктивність, крім того, психологічне та фізичне здоров’я. Це змушує дорожні органи шукати рішення для зменшення заторів і гарантування безпеки на дорогах. З цією метою виявлення учасників дорожнього руху в режимі реального часу дозволяє надавати функції та інформацію про конкретні точки дороги. Останні корисні для менеджерів доріг, а також для учасників доріг щодо місць заторів. Мета полягає в тому, щоб створити модель для виявлення учасників дорожнього руху, включаючи транспортні засоби та пішоходів, за допомогою штучного інтелекту, особливо технологій машинного навчання та комп’ютерного зору. У цій статті пропонується підхід до виявлення учасників дорожнього руху, використовуючи як вхідний набір даних із 22983 зображень, кожне з яких містить більше одного з цільових об’єктів, загалом близько 81000 цільових об’єктів, розподілених на людей (пішоходів), автомобілі, вантажівки/автобуси (транспортні засоби), а також мотоцикли/велосипеди. Набір даних, використаний у цій статті, відомий як Common Objects in Context (MS COCO), опублікований Microsoft. Крім того, було створено шість різних моделей на основі підходів RCNN, Fast RCNN, Faster RCNN, Mask RCNN, а також 5-ої та 7-ої версій YOLO. Крім того, було надано порівняння цих моделей за допомогою оціночних метрик. Як результат, обрана модель здатна виявляти учасників дорожнього руху з більш ніж 55% середньою точністю. | |
dc.description.abstract | One of the important problems that urban residents suffer from is Traffic Congestion. It makes their life more stressful, it impacts several sides including the economy: by wasting time, fuel and productivity. Moreover, the psychological and physical health. That makes road authorities required to find solutions for reducing traffic congestion and guaranteeing security and safety on roads. To this end, detecting road users in real-time allows for providing features and information about specific road points. These last are useful for road managers and also for road users about congested points. The goal is to build a model to detect road users including vehicles and pedestrians using artificial intelligence especially machine learning and computer vision technologies. This paper provides an approach to detecting road users using as input a dataset of 22983 images, each image contains more than one of the target objects, generally about 81000 target objects, distributed on persons (pedestrians), cars, trucks/buses (vehicles), and also motorcycles/bicycles. The dataset used in this study is known as Common Objects in Context (MS COCO) published by Microsoft. Furthermore, six different models were built based on the approaches RCNN, Fast RCNN, Faster RCNN, Mask RCNN, and the 5th and the 7th versions of YOLO. In addition, a comparison of these models using evaluation metrics was provided. As a result, the chosen model is able to detect road users with more than 55% in terms of mean average precision. | |
dc.format.extent | 518-523 | |
dc.format.pages | 6 | |
dc.identifier.citation | Road users detection for traffic congestion classification / A. Es Swidi, S. Ardchir, A. Daif, M. Azouazi // Mathematical Modeling and Computing. — Lviv : Lviv Politechnic Publishing House, 2023. — Vol 10. — No 2. — P. 518–523. | |
dc.identifier.citationen | Road users detection for traffic congestion classification / A. Es Swidi, S. Ardchir, A. Daif, M. Azouazi // Mathematical Modeling and Computing. — Lviv : Lviv Politechnic Publishing House, 2023. — Vol 10. — No 2. — P. 518–523. | |
dc.identifier.doi | doi.org/10.23939/mmc2023.02.518 | |
dc.identifier.uri | https://ena.lpnu.ua/handle/ntb/63413 | |
dc.language.iso | en | |
dc.publisher | Видавництво Львівської політехніки | |
dc.publisher | Lviv Politechnic Publishing House | |
dc.relation.ispartof | Математичне моделювання та комп'ютинг, 2 (10), 2023 | |
dc.relation.ispartof | Mathematical Modeling and Computing, 2 (10), 2023 | |
dc.relation.references | [1] Traffic congestion cost the US economy nearly 87 billion in 2018. | |
dc.relation.references | [2] Palubinskas G., Kurz F., Reinartz P. Model based traffic congestion detection in optical remote sensing imagery. European Transport Research Review. 2 (2), 85–92 (2010). | |
dc.relation.references | [3] Alsmadi M. K. Content-Based Image Retrieval Using Color, Shape and Texture Descriptors and Features. Arabian Journal for Science and Engineering. 45 (4), 3317–3330 (2020). | |
dc.relation.references | [4] Dalal N., Triggs B. Histograms of Oriented Gradients for Human Detection. 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05). 1, 886–893 (2005). | |
dc.relation.references | [5] Bhosle S., Khanale D. Texture Classification Approach and Texture Datasets: A Review. International Journal of Research and Analytical Reviews. 6 (2), 218–224 (2019). | |
dc.relation.references | [6] COCO — Common Objects in Context. | |
dc.relation.references | [7] Perreault H., Bilodeau G. A., Saunier N., H´eritier M. CenterPoly: real-time instance segmentation using bounding polygons. 2021 IEEE/CVF International Conference on Computer Vision Workshops (ICCVW). 2982–2991 (2021). | |
dc.relation.references | [8] Girshick R., Donahue J., Darrell T., Malik J. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation. 2014 IEEE Conference on Computer Vision and Pattern Recognition. 580–587 (2014). | |
dc.relation.references | [9] Girshick R. Fast R-CNN, arXiv:1504.08083 [cs] (2015). | |
dc.relation.references | [10] Ren S., He K., Girshick R., Sun J. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. Advances in Neural Information Processing Systems. 28, Curran Associates, Inc. (2015). | |
dc.relation.references | [11] He K., Gkioxari G., Doll´ar P., Girshick R. Mask R-CNN, arXiv:1703.06870 [cs] (2018). | |
dc.relation.references | [12] Redmon J., Divvala S., Girshick R., Farhadi A. You Only Look Once: Unified, Real-Time Object Detection. arXiv:1506.02640 [cs], arXiv: 1506.02640 (2016). | |
dc.relation.references | [13] Wang C.-Y., Bochkovskiy A., Liao H.-Y. M. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors. ArXiv:2207.02696 (2022). | |
dc.relation.references | [14] Long X., Deng K., Wang G., Zhang Y., Dang Q., Gao Y., Shen H., Ren J., Han S., Ding E., Wen S. PPYOLO: An Effective and Efficient Implementation of Object Detector. ArXiv: 2007.12099 (2020). | |
dc.relation.references | [15] Bochkovskiy A., Wang C.-Y., Liao H.-Y. M. YOLOv4: Optimal Speed and Accuracy of Object Detection. ArXiv:2004.10934 (2020). | |
dc.relation.references | [16] Redmon J., Farhadi A. YOLOv3: An Incremental Improvement. ArXiv:1804.02767 (2018). | |
dc.relation.referencesen | [1] Traffic congestion cost the US economy nearly 87 billion in 2018. | |
dc.relation.referencesen | [2] Palubinskas G., Kurz F., Reinartz P. Model based traffic congestion detection in optical remote sensing imagery. European Transport Research Review. 2 (2), 85–92 (2010). | |
dc.relation.referencesen | [3] Alsmadi M. K. Content-Based Image Retrieval Using Color, Shape and Texture Descriptors and Features. Arabian Journal for Science and Engineering. 45 (4), 3317–3330 (2020). | |
dc.relation.referencesen | [4] Dalal N., Triggs B. Histograms of Oriented Gradients for Human Detection. 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05). 1, 886–893 (2005). | |
dc.relation.referencesen | [5] Bhosle S., Khanale D. Texture Classification Approach and Texture Datasets: A Review. International Journal of Research and Analytical Reviews. 6 (2), 218–224 (2019). | |
dc.relation.referencesen | [6] COCO - Common Objects in Context. | |
dc.relation.referencesen | [7] Perreault H., Bilodeau G. A., Saunier N., H´eritier M. CenterPoly: real-time instance segmentation using bounding polygons. 2021 IEEE/CVF International Conference on Computer Vision Workshops (ICCVW). 2982–2991 (2021). | |
dc.relation.referencesen | [8] Girshick R., Donahue J., Darrell T., Malik J. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation. 2014 IEEE Conference on Computer Vision and Pattern Recognition. 580–587 (2014). | |
dc.relation.referencesen | [9] Girshick R. Fast R-CNN, arXiv:1504.08083 [cs] (2015). | |
dc.relation.referencesen | [10] Ren S., He K., Girshick R., Sun J. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. Advances in Neural Information Processing Systems. 28, Curran Associates, Inc. (2015). | |
dc.relation.referencesen | [11] He K., Gkioxari G., Doll´ar P., Girshick R. Mask R-CNN, arXiv:1703.06870 [cs] (2018). | |
dc.relation.referencesen | [12] Redmon J., Divvala S., Girshick R., Farhadi A. You Only Look Once: Unified, Real-Time Object Detection. arXiv:1506.02640 [cs], arXiv: 1506.02640 (2016). | |
dc.relation.referencesen | [13] Wang C.-Y., Bochkovskiy A., Liao H.-Y. M. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors. ArXiv:2207.02696 (2022). | |
dc.relation.referencesen | [14] Long X., Deng K., Wang G., Zhang Y., Dang Q., Gao Y., Shen H., Ren J., Han S., Ding E., Wen S. PPYOLO: An Effective and Efficient Implementation of Object Detector. ArXiv: 2007.12099 (2020). | |
dc.relation.referencesen | [15] Bochkovskiy A., Wang C.-Y., Liao H.-Y. M. YOLOv4: Optimal Speed and Accuracy of Object Detection. ArXiv:2004.10934 (2020). | |
dc.relation.referencesen | [16] Redmon J., Farhadi A. YOLOv3: An Incremental Improvement. ArXiv:1804.02767 (2018). | |
dc.rights.holder | © Національний університет “Львівська політехніка”, 2023 | |
dc.subject | затори на дорогах | |
dc.subject | дорожній затор | |
dc.subject | виявлення об’єктів | |
dc.subject | машинне навчання | |
dc.subject | глибоке навчання | |
dc.subject | traffic congestion | |
dc.subject | traffic jam | |
dc.subject | objects detection | |
dc.subject | machine learning | |
dc.subject | deep learning | |
dc.title | Road users detection for traffic congestion classification | |
dc.title.alternative | Виявлення учасників дорожнього руху для класифікації заторів | |
dc.type | Article |
Files
License bundle
1 - 1 of 1