Дослідження методів виділення динамічних об’єктів у відеопослідовностях

dc.citation.epage75
dc.citation.issue1
dc.citation.journalTitleІнфокомунікаційні технології та електронна інженерія
dc.citation.spage63
dc.contributor.affiliationНаціональний університет “Львівська політехніка”
dc.contributor.affiliationLviv Polytechnik National University
dc.contributor.authorКлимаш, М.
dc.contributor.authorМрак, В.
dc.contributor.authorГордійчук-Бублівська, О.
dc.contributor.authorKlymash, M.
dc.contributor.authorMrak, V.
dc.contributor.authorHordiychuk-Bublivska, O.
dc.coverage.placenameЛьвів
dc.coverage.placenameLviv
dc.date.accessioned2023-03-03T11:09:26Z
dc.date.available2023-03-03T11:09:26Z
dc.date.created2021-04-01
dc.date.issued2021-04-01
dc.description.abstractДосліджено найпоширеніші алгоритми виділення фону у відеопослідовностях, методи порівняльного аналізу та кількісні характеристики для вибору оптимальних алгоритмів виділення фону. В результаті проведеного дослідження запропоновано загальний показник ефективності роботи алгоритму виділення фону на відеопослідовностях, що отримані зі стаціонарних камер відеоспостереження у системах відеоспостереження. Здійснено дослідження методів виявлення динамічних об’єктів на відеопослідовностях. Дослідження ефективності застосування різних колірних схем у методах виділення динамічних об’єктів. За результатами аналізу переваг та недоліків низки колірних моделей прийнято припущення щодо можливості застосування інших колірних схем, окрім RGB, які характеризуються кращими фотометричними інваріантними особливостями, під час розроблення методу виділення динамічних об’єктів.
dc.description.abstractThis paper is devoted to the study of the most common background selection algorithms in video sequences, methods of comparative analysis and quantitative characteristics for the selection of optimal background selection algorithms. As a result of the conducted research the general indicator of efficiency of work of algorithm of allocation of a background on the video sequences received from stationary cameras of video surveillance in video surveillance systems is offered. A study of methods for detecting dynamic objects in video sequences. Research of efficiency of application of various color schemes in methods of selection of dynamic objects. The analysis of the advantages and disadvantages of a number of color models and assumptions about the possibility of using other color schemes besides RGB, which are characterized by the best photometric invariant features in the development of the method of selection of dynamic objects.
dc.format.extent63-75
dc.format.pages13
dc.identifier.citationКлимаш М. Дослідження методів виділення динамічних об’єктів у відеопослідовностях / М. Климаш, В. Мрак, О. Гордійчук-Бублівська // Інфокомунікаційні технології та електронна інженерія. — Львів : Видавництво Львівської політехніки — Vol 1. — № 1. — С. 63–75.
dc.identifier.citationenKlymash M., Mrak V., Hordiychuk-Bublivska O. Doslidzhennia metodiv vydilennia dynamichnykh obiektiv u videoposlidovnostiakh [Investigation of methods for dynamic objects separation in video sequences]. Infocommunication Technologies and Electronic Engineering (Lviv), vol. 1, no 1, pp. 63-75 [in Ukrainian].
dc.identifier.issn2786-4553
dc.identifier.urihttps://ena.lpnu.ua/handle/ntb/57484
dc.language.isouk
dc.publisherВидавництво Львівської політехніки
dc.publisherLviv Politechnic Publishing House
dc.relation.ispartofІнфокомунікаційні технології та електронна інженерія, 1 (1)
dc.relation.ispartofInfocommunication Technologies and Electronic Engineering, 1 (1)
dc.relation.references[1] Бабарика А. О. Обґрунтування показника вибору оптимального алгоритму виділення фону у відеопослідовностях з камер відеоспостереження відомчих систем відеоспостереження. Сучасні інформаційні технології у сфері безпеки та оборони. Київ: Національний університет оборони України, 2019. Вип. № 3 (36). С. 97–102. DOI : http://dx.doi.org/10.33099/2311-7249/2019-36-3-97-102.
dc.relation.references[2] Бабарика А. О. Cистеми автоматичного розпізнавання обличчя як елемент інтелектуальної системи відеоспостереження. VІІІ науково-практична конференція “Наукове забезпечення службово-бойової діяльності Національної гвардії України”. Харків: НАНГУ, 2017. С. 71.
dc.relation.references[3] Бабарика А. О. Класифікація алгоритмів супроводження рухомих об’єктів на відеопослідовностях з камер відеоспостереження. Міжнародна науково-практична конференція “Освітньо-наукове забезпечення діяльності складових сектору безпеки й оборони України”. Хмельницький: НАДПСУ, 2019. С. 672–674.
dc.relation.references[4] Бабарика А. О., Табенський С. М. Актуальні проблеми вибору архітектури побудови відомчої інтелектуальної системи відеоспостереження. Освітньо-наукове забезпечення діяльності складових сектору безпеки і оборони України: тези ХІ всеукраїнської науково-практичної конференції. Хмельницький: НАДПСУ, 2018. С. 682–684.
dc.relation.references[5] Бабарика А. О., Табенський С. М. Використання можливостей нейронних мереж для вирішення задач розпізнавання образів. Актуальні проблеми проектування, виготовлення і експлуатації озброєння та військової техніки: матеріали всеукраїнської науково-технічної конференції 17–19 травня 2017 р. Вінниця: ВНТУ, 2017. С. 39–41.
dc.relation.references[6] Бабарика А. О., Хоптинський Р. П. Проблемні питання використання нейронних мереж в задачах розпізнавання образів на знімках поверхні Землі. Аерокосмічні технології в Україні: тези доповідей ІІІ науково-практичної конференції. Київ, 2019. С. 37–38.
dc.relation.references[7] Катеринчук І. С., Бабарика А. О. Актуальні проблеми алгоритмічного забезпечення інтелектуальних систем відеоспостереження. Актуальні питання забезпечення службово-бойової діяльності військових формувань та правоохоронних органів: збірник тез доповідей науково-практичної конференції. Харків: НАНГУ, 2018. С. 72–74.
dc.relation.references[8] Катеринчук І. С., Бабарика А. О. Обґрунтування завдань аналітичної обробки даних у відомчій системі відеоспостереження. Освітньо-наукове забезпечення діяльності складових сектору безпеки і оборони України: тези ХІ всеукраїнської науково-практичної конференції НАДПСУ. Хмельницький: НАДПСУ, 2018. С. 733–735.
dc.relation.references[9] Катеринчук І. С., Бабарика А. О. Удосконалення алгоритму виявлення динамічних об’єктів на відеопослідовностях. Радіоелектроніка, інформатика, управління. Запоріжжя: ЗНТУ, 2020. Вип. 3. С. 88–98.
dc.relation.references[10] Коваленко Н. В., Годовиченко Н. А., Антощук С. Г. Отслеживание объектов интереса при построении автоматизированных систем видеонаблюдения за людьми. Электротехнические и компьютерные системы. 2012. Вип. 05(81). С. 151–156.
dc.relation.references[11] Ярышев С. Н. Цифровые методы обработки видеоинформации и видеоаналитика. Санкт-Петербург, 2011. 83 с.
dc.relation.references[12] A Benchmark Dataset for Outdoor Foreground/Background Extraction. Computer Vision – ACCV 2012 Workshops: ACCV 2012 International Workshops. Part I. / Antoine Vacavant, Thierry Chateau, Alexis Wilhelm, Laurent Lequièvre. Daejeon, Korea, 2012. Р. 291–300.
dc.relation.references[13] A Survey on Visual Surveillance of Object Motion and Behaviors. IEEE Transactions on Systems, Man and Cybernetics, Part C (Applications and Reviews) / H. Weiming. Р. 334–352. DOI: 10.1109/TSMCC.2004.829274.
dc.relation.references[14] Automatic classification of fruit defects based on co-occurrence matrix and neural networks. IEEE Federated Conference on Computer Science and Information Systems (FedCSIS). / Giacomo Capizzi та ін. 2015.Р. 861–867.
dc.relation.references[15] Babaryka Anatolii. Study of detection and tracking algorithms of moving objects in video sequences from video surveillance cameras. Conceptual and scientifically-methodical principles of realization of policy in the field of the state border security in Ukraine: collective monograph. Lviv-Toruń: Liha-Pres, 2019. Вип. Chapter 6. Р. 89–105. DOI: https://doi.org/10.36059/978-966-397-184-1/89-105.
dc.relation.references[16] Background Subtraction Website. веб-сайт. URL: https://sites.google.com/site/backgroundsubtraction/testsequences/human-activities (дата звернення: 09.01.2020).
dc.relation.references[17] Barnich O., Van Droogenbroeck M. ViBe: a powerful random technique to estimate the background in video sequences. Speech and Signal Processing, 2009 IEEE International Conference on Acoustics. Taipei, 2009. Р. 945–948. DOI : 10.1109/ICASSP.2009.4959741.
dc.relation.references[18] Barnich O., Van Droogenbroeck M. ViBe: A universal background subtraction algorithm for video sequences. IEEE Transactions on Image Processing. 2011. Вип. 20 (6). Р. 1709–1724. DOI: 10.1109/TIP.2010.2101613.
dc.relation.references[19] Bouwmans T. Traditional and recent approaches in background modeling for foreground detection: An overview. Computer Science Review. 2014. Вип. 11. Р. 31–66. URL: https://doi.org/10.1016/j.cosrev.2014.04.001. (дата звернення : 09.01.2020).
dc.relation.references[20] Brutzer S., Hoferlin B., Heidemann G. Evaluation of Background Subtraction Techniques for Video Surveillance. Proceedings of the 24th IEEE Conference on Computer Vision and Pattern Recognition. Colorado Springs, CO, USA, 2011. Р. 1937–1944.
dc.relation.references[21] CDnet 2014: An Expanded Change Detection Benchmark Dataset. 2014 IEEE Conference on Computer Vision and Pattern Recognition Workshops / Wang Yi at al. Columbus, OH, 2014. Р. 393–400.
dc.relation.references[22] ChangeDetection.NET (CDNET). веб-сайт. URL: http://www.changedetection.net (дата звернення: 09.01.2020).
dc.relation.references[23] Comparative study of background subtraction algorithms. Journal of Electronic Imaging. Yannick Benezeth та ін. 2010. Вип. 19 (3). URL: https://doi.org/10.1117/1.3456695. (дата звернення: 09.01.2020).
dc.relation.references[24] Cristani M., Farenzena M., Bloisi D., Murino V. Background Subtraction for Automated Multisensor Surveillance. A Comprehensive Review. EURAS1P Journal on Advances in Signal Processing. 2010. Р. 24.
dc.relation.references[25] Gevers T., Smeulders A.W. Color-based object recognition. Pattern Recognition. 1999. Is. 32. Р. 453–464. DOI : https://doi.org/10.1016/S0031-3203(98)00036-3.
dc.relation.references[26] Godbehere A., Matsukawa A., Goldberg K. Y. Visual Tracking of Human Visitors under Variable-Lighting Conditions for a Responsive Audio Art Installation. American Control Conference (ACC). Montreal, QC, Canada, 2012. Р. 4305–4312. DOI: 10.1109/ACC.2012.6315174.
dc.relation.references[27] Hayman E., Eklundh J. Statistical background subtraction for a mobile observer. Proceedings Ninth IEEE International Conference on Computer Vision. 2003. Р. 67–74. DOI: 10.1109/ICCV.2003.1238315.
dc.relation.references[28] MacAdam D. L. Projective transformations of I.C.I. color specifications. Journal of the Optical Society of America. 1937. Vol. 27 (8). Р. 294–299. DOI: 10.1364/JOSA.27.000294.
dc.relation.references[29] Minghao Yang, Jianhua Tao, Lihui Shi, Kaihui Mu, Jianfeng Che. An outlier rejection scheme for optical flow tracking. IEEE International Workshop on Machine Learning for Signal Processing. 2011. С. 18–21.
dc.relation.references[30] Napoli C., Pappalardo G., Tramontana E., Nowicki R.K., Starczewski J.T., Wozniak M. Toward work groups classification based on probabilistic neural network approach. Artificial Intelligence and Soft Computin. 2015. Vol. 9119. P. 79–89.
dc.relation.references[31] Rasouli A., Tsotsos K. The effect of color space selection on detectability and discriminability of colored objects. Arxiv.org: веб-сайт. URL: https://arxiv.org/abs/1702.05421 (дата звернення: 09.01.2020).
dc.relation.references[32] Robust Color Contour Object Detection Invariant to Shadows. Progress in pattern recognition, image analysis and applications (CIARP’07) / Scandaliaris J. та ін. Berlin : Springer-Verlag, 2007. P. 301–310. DOI: 10.1007/978-3-540-76725-1_32.
dc.relation.references[33] Salvador E., Cavallaro A., Ebrahimi T. Cast shadow segmentation using invariant color features. Computer Vision and Image Understanding. 2004. Vol. 95. P. 238–259. DOI: j.cviu.2004.03.008.
dc.relation.references[34] Salvador E., Cavallaro A., Ebrahimi T. Shadow identification and classification using invariant color models. 2001 IEEE International Conference on Acoustics, Speech, and Signal Processing. Salt Lake City, UT, USA,2001. P. 1545–1548. DOI: 10.1109/ICASSP.2001.941227.
dc.relation.references[35] Sobral Andrews, Vacavant Antoine. A comprehensive review of background subtraction algorithms evaluated with synthetic and real videos. Computer Vision and Image Understanding. 2014. Vol. 122. P. 4–21. URL: https://doi.org/10.1016/j.cviu.2013.12.005. (дата звернення : 09.01.2020).
dc.relation.references[36] Stauffer C., Grimson W. Adaptive background mixture models for real-time tracking. Computer Society Conference on Computer Vision and Pattern Recognition. 1999. P. 2246–2252. DOI: 10.1109/ CVPR.1999.784637.
dc.relation.references[37] Stuttgart Artificial Background Subtraction Dataset. Institute for Visualisation and Interactive Systems (VIS): веб-сайт. URL: https://www.vis.uni-stuttgart.de/forschung/visual_analytics/visuelle_analyse_videostroeme/ stuttgart_artificial_background_subtraction_dataset/index.en.html (дата звернення: 09.01.2020).
dc.relation.references[38] Viola P., Jones M. Robust real-time face detection. International journal of computer vision. 2004. Vol. 57,No. 2. P. 137–154.
dc.relation.references[39] Viola P, Jones M, Snow D. Detecting pedestrians using patterns of motion and appearance. International Journal of Computer Vision. 2005. Vol. 63, No 2. P. 153–161.
dc.relation.references[40] Wyszecki G. Proposal for a New Color-Difference Formula. Journal of the Optical Society of America. 1963. P. 1318–1319. DOI: 10.1364/JOSA.53.001318.
dc.relation.references[41] Zhao T., Nevatia R. Tracking multiple humans in complex situations. IEEE Trans. on Pattern Analysis and Machine Intelligence. 2004. Vol. 26, No. 9. P. 1208–1221.
dc.relation.references[42] Zivkovic Z., F. van der Heijden. Efficient adaptive density estimation per image pixel for the task of background subtraction. Pattern Recognition Letters. 2006. No. 27. P. 773–780. DOI: https://doi.org/ 10.1016/j.patrec.2005.11.005.
dc.relation.references[43] Zivkovic Z. Improved Adaptive Gaussian Mixture Model for Background Subtraction. Proceedings of the 17th International Conference on Pattern Recognition. 2004. No. 2. P. 28–31. DOI: 10.1109/ICPR.2004.1333992.
dc.relation.references[44] Borgefors G. Distance Transformations in digital images. Computer Vision, Graphics, and Image Processing. 1986. No. 34. P. 344–371. URL: https://www.sciencedirect.com/science/article/pii/S0734189X86800470? via%3Dihub. (дата звернення: 09.01.2020).
dc.relation.referencesen[1] Babaryka A. O. Obgruntuvannia pokaznyka vyboru optymalnoho alhorytmu vydilennia fonu u videoposlidovnostiakh z kamer videosposterezhennia vidomchykh system videosposterezhennia. Suchasni informatsiini tekhnolohii u sferi bezpeky ta oborony. Kyiv: Natsionalnyi universytet oborony Ukrainy, 2019. Vyp. No 3 (36). P. 97–102. DOI : http://dx.doi.org/10.33099/2311-7249/2019-36-3-97-102.
dc.relation.referencesen[2] Babaryka A. O. Cystemy avtomatychnoho rozpiznavannia oblychchia yak element intelektualnoi systemy videosposterezhennia. VIII naukovo-praktychna konferentsiia "Naukove zabezpechennia sluzhbovo-boiovoi diialnosti Natsionalnoi hvardii Ukrainy". Kharkiv: NANHU, 2017. P. 71.
dc.relation.referencesen[3] Babaryka A. O. Klasyfikatsiia alhorytmiv suprovodzhennia rukhomykh obiektiv na videoposlidovnostiakh z kamer videosposterezhennia. Mizhnarodna naukovo-praktychna konferentsiia "Osvitno-naukove zabezpechennia diialnosti skladovykh sektoru bezpeky y oborony Ukrainy". Khmelnytskyi: NADPSU, 2019. P. 672–674.
dc.relation.referencesen[4] Babaryka A. O., Tabenskyi S. M. Aktualni problemy vyboru arkhitektury pobudovy vidomchoi intelektualnoi systemy videosposterezhennia. Osvitno-naukove zabezpechennia diialnosti skladovykh sektoru bezpeky i oborony Ukrainy: tezy KhI vseukrainskoi naukovo-praktychnoi konferentsii. Khmelnytskyi: NADPSU, 2018. P. 682–684.
dc.relation.referencesen[5] Babaryka A. O., Tabenskyi S. M. Vykorystannia mozhlyvostei neironnykh merezh dlia vyrishennia zadach rozpiznavannia obraziv. Aktualni problemy proektuvannia, vyhotovlennia i ekspluatatsii ozbroiennia ta viiskovoi tekhniky: materialy vseukrainskoi naukovo-tekhnichnoi konferentsii 17–19 travnia 2017 y. Vinnytsia: VNTU, 2017. P. 39–41.
dc.relation.referencesen[6] Babaryka A. O., Khoptynskyi R. P. Problemni pytannia vykorystannia neironnykh merezh v zadachakh rozpiznavannia obraziv na znimkakh poverkhni Zemli. Aerokosmichni tekhnolohii v Ukraini: tezy dopovidei III naukovo-praktychnoi konferentsii. Kyiv, 2019. P. 37–38.
dc.relation.referencesen[7] Katerynchuk I. S., Babaryka A. O. Aktualni problemy alhorytmichnoho zabezpechennia intelektualnykh system videosposterezhennia. Aktualni pytannia zabezpechennia sluzhbovo-boiovoi diialnosti viiskovykh formuvan ta pravookhoronnykh orhaniv: zbirnyk tez dopovidei naukovo-praktychnoi konferentsii. Kharkiv: NANHU, 2018. P. 72–74.
dc.relation.referencesen[8] Katerynchuk I. S., Babaryka A. O. Obgruntuvannia zavdan analitychnoi obrobky danykh u vidomchii systemi videosposterezhennia. Osvitno-naukove zabezpechennia diialnosti skladovykh sektoru bezpeky i oborony Ukrainy: tezy KhI vseukrainskoi naukovo-praktychnoi konferentsii NADPSU. Khmelnytskyi: NADPSU, 2018. P. 733–735.
dc.relation.referencesen[9] Katerynchuk I. S., Babaryka A. O. Udoskonalennia alhorytmu vyiavlennia dynamichnykh obiektiv na videoposlidovnostiakh. Radioelektronika, informatyka, upravlinnia. Zaporizhzhia: ZNTU, 2020. Iss. 3. P. 88–98.
dc.relation.referencesen[10] Kovalenko N. V., Hodovichenko N. A., Antoshchuk S. H. Otslezhivanie obieektov interesa pri postroenii avtomatizirovannykh sistem videonabliudeniia za liudmi. Elektrotekhnicheskie i kompiuternye sistemy. 2012. Iss. 05(81). P. 151–156.
dc.relation.referencesen[11] Iaryshev S. N. Tsifrovye metody obrabotki videoinformatsii i videoanalitika. Sankt-Peterburh, 2011. 83 p.
dc.relation.referencesen[12] A Benchmark Dataset for Outdoor Foreground/Background Extraction. Computer Vision – ACCV 2012 Workshops: ACCV 2012 International Workshops. Part I., Antoine Vacavant, Thierry Chateau, Alexis Wilhelm, Laurent Lequièvre. Daejeon, Korea, 2012. R. 291–300.
dc.relation.referencesen[13] A Survey on Visual Surveillance of Object Motion and Behaviors. IEEE Transactions on Systems, Man and Cybernetics, Part C (Applications and Reviews), H. Weiming. R. 334–352. DOI: 10.1109/TSMCC.2004.829274.
dc.relation.referencesen[14] Automatic classification of fruit defects based on co-occurrence matrix and neural networks. IEEE Federated Conference on Computer Science and Information Systems (FedCSIS)., Giacomo Capizzi and other 2015.R. 861–867.
dc.relation.referencesen[15] Babaryka Anatolii. Study of detection and tracking algorithms of moving objects in video sequences from video surveillance cameras. Conceptual and scientifically-methodical principles of realization of policy in the field of the state border security in Ukraine: collective monograph. Lviv-Toruń: Liha-Pres, 2019. Vip. Chapter 6. R. 89–105. DOI: https://doi.org/10.36059/978-966-397-184-1/89-105.
dc.relation.referencesen[16] Background Subtraction Website. veb-sait. URL: https://sites.google.com/site/backgroundsubtraction/testsequences/human-activities (Date of appeal: 09.01.2020).
dc.relation.referencesen[17] Barnich O., Van Droogenbroeck M. ViBe: a powerful random technique to estimate the background in video sequences. Speech and Signal Processing, 2009 IEEE International Conference on Acoustics. Taipei, 2009. R. 945–948. DOI : 10.1109/ICASSP.2009.4959741.
dc.relation.referencesen[18] Barnich O., Van Droogenbroeck M. ViBe: A universal background subtraction algorithm for video sequences. IEEE Transactions on Image Processing. 2011. Iss. 20 (6). R. 1709–1724. DOI: 10.1109/TIP.2010.2101613.
dc.relation.referencesen[19] Bouwmans T. Traditional and recent approaches in background modeling for foreground detection: An overview. Computer Science Review. 2014. Iss. 11. R. 31–66. URL: https://doi.org/10.1016/j.cosrev.2014.04.001. (Date of appeal : 09.01.2020).
dc.relation.referencesen[20] Brutzer S., Hoferlin B., Heidemann G. Evaluation of Background Subtraction Techniques for Video Surveillance. Proceedings of the 24th IEEE Conference on Computer Vision and Pattern Recognition. Colorado Springs, CO, USA, 2011. R. 1937–1944.
dc.relation.referencesen[21] CDnet 2014: An Expanded Change Detection Benchmark Dataset. 2014 IEEE Conference on Computer Vision and Pattern Recognition Workshops, Wang Yi at al. Columbus, OH, 2014. R. 393–400.
dc.relation.referencesen[22] ChangeDetection.NET (CDNET). veb-sait. URL: http://www.changedetection.net (Date of appeal: 09.01.2020).
dc.relation.referencesen[23] Comparative study of background subtraction algorithms. Journal of Electronic Imaging. Yannick Benezeth and other 2010. Iss. 19 (3). URL: https://doi.org/10.1117/1.3456695. (Date of appeal: 09.01.2020).
dc.relation.referencesen[24] Cristani M., Farenzena M., Bloisi D., Murino V. Background Subtraction for Automated Multisensor Surveillance. A Comprehensive Review. EURAS1P Journal on Advances in Signal Processing. 2010. R. 24.
dc.relation.referencesen[25] Gevers T., Smeulders A.W. Color-based object recognition. Pattern Recognition. 1999. Is. 32. R. 453–464. DOI : https://doi.org/10.1016/S0031-3203(98)00036-3.
dc.relation.referencesen[26] Godbehere A., Matsukawa A., Goldberg K. Y. Visual Tracking of Human Visitors under Variable-Lighting Conditions for a Responsive Audio Art Installation. American Control Conference (ACC). Montreal, QC, Canada, 2012. R. 4305–4312. DOI: 10.1109/ACC.2012.6315174.
dc.relation.referencesen[27] Hayman E., Eklundh J. Statistical background subtraction for a mobile observer. Proceedings Ninth IEEE International Conference on Computer Vision. 2003. R. 67–74. DOI: 10.1109/ICCV.2003.1238315.
dc.relation.referencesen[28] MacAdam D. L. Projective transformations of I.C.I. color specifications. Journal of the Optical Society of America. 1937. Vol. 27 (8). R. 294–299. DOI: 10.1364/JOSA.27.000294.
dc.relation.referencesen[29] Minghao Yang, Jianhua Tao, Lihui Shi, Kaihui Mu, Jianfeng Che. An outlier rejection scheme for optical flow tracking. IEEE International Workshop on Machine Learning for Signal Processing. 2011. P. 18–21.
dc.relation.referencesen[30] Napoli C., Pappalardo G., Tramontana E., Nowicki R.K., Starczewski J.T., Wozniak M. Toward work groups classification based on probabilistic neural network approach. Artificial Intelligence and Soft Computin. 2015. Vol. 9119. P. 79–89.
dc.relation.referencesen[31] Rasouli A., Tsotsos K. The effect of color space selection on detectability and discriminability of colored objects. Arxiv.org: veb-sait. URL: https://arxiv.org/abs/1702.05421 (Date of appeal: 09.01.2020).
dc.relation.referencesen[32] Robust Color Contour Object Detection Invariant to Shadows. Progress in pattern recognition, image analysis and applications (CIARP07), Scandaliaris J. and other Berlin : Springer-Verlag, 2007. P. 301–310. DOI: 10.1007/978-3-540-76725-1_32.
dc.relation.referencesen[33] Salvador E., Cavallaro A., Ebrahimi T. Cast shadow segmentation using invariant color features. Computer Vision and Image Understanding. 2004. Vol. 95. P. 238–259. DOI: j.cviu.2004.03.008.
dc.relation.referencesen[34] Salvador E., Cavallaro A., Ebrahimi T. Shadow identification and classification using invariant color models. 2001 IEEE International Conference on Acoustics, Speech, and Signal Processing. Salt Lake City, UT, USA,2001. P. 1545–1548. DOI: 10.1109/ICASSP.2001.941227.
dc.relation.referencesen[35] Sobral Andrews, Vacavant Antoine. A comprehensive review of background subtraction algorithms evaluated with synthetic and real videos. Computer Vision and Image Understanding. 2014. Vol. 122. P. 4–21. URL: https://doi.org/10.1016/j.cviu.2013.12.005. (Date of appeal : 09.01.2020).
dc.relation.referencesen[36] Stauffer C., Grimson W. Adaptive background mixture models for real-time tracking. Computer Society Conference on Computer Vision and Pattern Recognition. 1999. P. 2246–2252. DOI: 10.1109/ CVPR.1999.784637.
dc.relation.referencesen[37] Stuttgart Artificial Background Subtraction Dataset. Institute for Visualisation and Interactive Systems (VIS): veb-sait. URL: https://www.vis.uni-stuttgart.de/forschung/visual_analytics/visuelle_analyse_videostroeme/ stuttgart_artificial_background_subtraction_dataset/index.en.html (Date of appeal: 09.01.2020).
dc.relation.referencesen[38] Viola P., Jones M. Robust real-time face detection. International journal of computer vision. 2004. Vol. 57,No. 2. P. 137–154.
dc.relation.referencesen[39] Viola P, Jones M, Snow D. Detecting pedestrians using patterns of motion and appearance. International Journal of Computer Vision. 2005. Vol. 63, No 2. P. 153–161.
dc.relation.referencesen[40] Wyszecki G. Proposal for a New Color-Difference Formula. Journal of the Optical Society of America. 1963. P. 1318–1319. DOI: 10.1364/JOSA.53.001318.
dc.relation.referencesen[41] Zhao T., Nevatia R. Tracking multiple humans in complex situations. IEEE Trans. on Pattern Analysis and Machine Intelligence. 2004. Vol. 26, No. 9. P. 1208–1221.
dc.relation.referencesen[42] Zivkovic Z., F. van der Heijden. Efficient adaptive density estimation per image pixel for the task of background subtraction. Pattern Recognition Letters. 2006. No. 27. P. 773–780. DOI: https://doi.org/ 10.1016/j.patrec.2005.11.005.
dc.relation.referencesen[43] Zivkovic Z. Improved Adaptive Gaussian Mixture Model for Background Subtraction. Proceedings of the 17th International Conference on Pattern Recognition. 2004. No. 2. P. 28–31. DOI: 10.1109/ICPR.2004.1333992.
dc.relation.referencesen[44] Borgefors G. Distance Transformations in digital images. Computer Vision, Graphics, and Image Processing. 1986. No. 34. P. 344–371. URL: https://www.sciencedirect.com/science/article/pii/S0734189X86800470? via%3Dihub. (Date of appeal: 09.01.2020).
dc.relation.urihttp://dx.doi.org/10.33099/2311-7249/2019-36-3-97-102
dc.relation.urihttps://doi.org/10.36059/978-966-397-184-1/89-105
dc.relation.urihttps://sites.google.com/site/backgroundsubtraction/testsequences/human-activities
dc.relation.urihttps://doi.org/10.1016/j.cosrev.2014.04.001
dc.relation.urihttp://www.changedetection.net
dc.relation.urihttps://doi.org/10.1117/1.3456695
dc.relation.urihttps://doi.org/10.1016/S0031-3203(98)00036-3
dc.relation.urihttps://arxiv.org/abs/1702.05421
dc.relation.urihttps://doi.org/10.1016/j.cviu.2013.12.005
dc.relation.urihttps://www.vis.uni-stuttgart.de/forschung/visual_analytics/visuelle_analyse_videostroeme/
dc.relation.urihttps://doi.org/
dc.relation.urihttps://www.sciencedirect.com/science/article/pii/S0734189X86800470?
dc.rights.holder© Національний університет „Львівська політехніка“, 2021
dc.subjectвідеоспостереження
dc.subjectінтелектуальна система відеоспостереження
dc.subjectвиявлення динамічних об’єктів
dc.subjectvideo surveillance
dc.subjectintelligent video surveillance system
dc.subjectdetection of dynamic objects
dc.subject.udc621.126
dc.titleДослідження методів виділення динамічних об’єктів у відеопослідовностях
dc.title.alternativeInvestigation of methods for dynamic objects separation in video sequences
dc.typeArticle

Files

Original bundle

Now showing 1 - 1 of 1
Thumbnail Image
Name:
v1n1_Klymash_M-Investigation_of_methods_63-75.pdf
Size:
1.33 MB
Format:
Adobe Portable Document Format

License bundle

Now showing 1 - 1 of 1
No Thumbnail Available
Name:
license.txt
Size:
1.83 KB
Format:
Plain Text
Description: