Моделі та засоби класифікації патернів елементів одягу з використанням машинного навчання

dc.citation.epage47
dc.citation.issue1
dc.citation.journalTitleУкраїнський журнал інформаційних технологій
dc.citation.spage37
dc.citation.volume6
dc.contributor.affiliationНаціональний університет “Львівська політехніка”
dc.contributor.affiliationLviv Polytechnic National University
dc.contributor.authorТеслюк, В. М.
dc.contributor.authorІвасів, С. С.
dc.contributor.authorTeslyuk, V. M.
dc.contributor.authorIvasiv, S. S.
dc.coverage.placenameЛьвів
dc.coverage.placenameLviv
dc.date.accessioned2025-05-21T08:02:12Z
dc.date.created2024-02-28
dc.date.issued2024-02-28
dc.description.abstractЗавдання класифікації патернів не втрачає актуальності у сферах трендів, стилю, моди, персоналізації, виробництва та дизайну. Висвітлено дослідження, спрямоване на проєктування та розроблення моделей і засобів класифікації патернів елементів одягу із використанням машинного навчання. Воно вирішує актуальне питання комп’ютерного зору, а саме підвищення ефективності класифікації патернів елементів одягу. Дослідження виконано з власним набором даних, що містить 600 зображень. Для здійснення класифікації визначено такі патерни: “у клітинку”, “у крапку”, “рослинність / квітковий”, “принт”, “суцільний”, “у смужку”. За допомогою мови програмування Python і фреймворків глибокого навчання Keras та TensorFlow розроблено згорткову нейронну мережу. Використано масштабований фреймворк Keras-Tuner для оптимізації гіперпараметрів розробленої мережі. Структура згорткової нейронної мережі містить вхідну частину, частину визначення характерних ознак у зображенні та частину для визначення типу патерну. Описано архітектуру використаної згорткової нейронної мережі. Застосовано набір інструментів CUDA, бібліотеку cuDNN та прошарок WSL для навчання згорткової нейронної мережі за допомогою графічного процесора, що дало змогу істотно пришвидшити навчання згорткової нейронної мережі. Для оцінювання розробленої згорткової нейронної мережі використано метрики, які охоплюють точність, прогностичну значущість позитивного результату та повноту. Вебзастосунок розроблено мовою програмування Python із фреймворком FastAPI. Вебзастосунок має описаний прикладний програмний інтерфейс для взаємодії зі згортковою нейронною мережею, використано також бібліотеки Pillow (PIL) для роботи із зображеннями та Rembg для видалення фону зображення. Користувацький інтерфейс розроблено мовою програмування JavaScript із використанням мови розмітки, каскадних таблиць стилів та фреймворком React. Інтерфейс користувача представлено як інтуїтивний інструмент для взаємодії із системою. Розроблене програмне забезпечення використовує модульний принцип, що дає змогу швидко модернізувати програмний засіб. У результаті застосування підходу перенесення навчання досягнуто точність тестування 93,33 %, а з використанням підходу тонкого налаштування отримано остаточну версію згорткової нейронної мережі для класифікації патернів елементів одягу із точністю тестування 95 %. Навчену нейронну мережу апробовано на нових зображеннях визначених типів патернів, наведено приклади для двох патернів.
dc.description.abstractThe task of pattern classification remains relevant in the fields of trends, style, fashion, personalization, manufacturing, and design. Research aimed at the design and development of models and means of classification of patterns of clothing elements using machine learning is highlighted. The study addresses a pertinent issue in computer vision, namely: increasing the efficiency of classification of patterns of clothing elements. The research was conducted with a proprietary dataset comprising 600 images. The following patterns are defined for classification: “checkered”, “dotted”, “vegetation/floral”, “print”, “solid”, “striped”. A convolutional neural network was developed using the Python programming language and deep learning frameworks Keras and TensorFlow. The scalable Keras-Tuner framework was used to optimize the hyperparameters of the developed network. The structure of the convolutional neural network includes an input layer, a feature extraction part, and a pattern type determination part. The architecture of the applied convolutional neural network is described. The CUDA Toolkit, the cuDNN library and the WSL layer are applied to train a convolutional neural network using a GPU, significantly speeding up the training process. Metrics including accuracy, precision, and recall were used to evaluate the developed convolutional neural network. The web application is developed in the Python programming language with the FastAPI framework. The web application has a described API for interacting with a convolutional neural network, and uses the Pillow (PIL) libraries for working with images and Rembg for image background removal. The user interface is developed in the JavaScript programming language with HTML, CSS and the React framework. The user interface is presented as an intuitive tool for interacting with the system. The developed software uses the modular principle, which allows for rapid modernization of the software. As a result of applying transfer learning, a testing accuracy of 93.33% was achieved, and with fine-tuning, the final version of the convolutional neural network for the classification of patterns of clothing elements with a test accuracy of 95% was obtained. The trained neural network was tested on new images of the specified types of patterns, examples for two patterns are given.
dc.format.extent37-47
dc.format.pages11
dc.identifier.citationТеслюк В. М. Моделі та засоби класифікації патернів елементів одягу з використанням машинного навчання / В. М. Теслюк, С. С. Івасів // Український журнал інформаційних технологій. — Львів : Видавництво Львівської політехніки, 2024. — Том 6. — № 1. — С. 37–47.
dc.identifier.citationenTeslyuk V. M. Models and means of clothing elements patterns classification using machine learning / V. M. Teslyuk, S. S. Ivasiv // Ukrainian Journal of Information Tecnology. — Lviv : Lviv Politechnic Publishing House, 2024. — Vol 6. — No 1. — P. 37–47.
dc.identifier.doidoi.org/10.23939/ujit2024.01.037
dc.identifier.urihttps://ena.lpnu.ua/handle/ntb/64855
dc.language.isouk
dc.publisherВидавництво Львівської політехніки
dc.publisherLviv Politechnic Publishing House
dc.relation.ispartofУкраїнський журнал інформаційних технологій, 1 (6), 2024
dc.relation.ispartofUkrainian Journal of Information Tecnology, 1 (6), 2024
dc.relation.references1. Zakaryan, V. (2022, June 17). AI Clothing Detection: Use Cases for Fashion and E-commerce. Retrieved from: https://postindustria.com/ai-clothing-detection-use-cases-for-fashion-and-e-commerce/
dc.relation.references2. Wang, H. (2018, July 30). Rule-free sewing pattern adjustment with precision and efficiency. ACM Transactions on Graphics, 37, 1–13. https://doi.org/10.1145/3197517.3201320
dc.relation.references3. Liu, L., Xu, X., Lin, Z., Liang, J., & Yan, S. (2023, December). Towards Garment Sewing Pattern Reconstruction from a Single Image. ACM Transactions on Graphics, 42(6), Article 200, 15 pages. https://doi.org/10.1145/3618319
dc.relation.references4. Shen, Y., Liang, J., & Lin, M. (2020). GAN-Based Garment Generation Using Sewing Pattern Images. https://doi.org/10.1007/978-3-030-58523-5_14
dc.relation.references5. Mehta, K., & Panda, S. P. (2022). Sentiment Analysis on E-Commerce Apparels using Convolutional Neural Network. International Journal of Computing, 21(2), 234-241. https://doi.org/10.47839/ijc.21.2.2592
dc.relation.references6. El-Nahas, M. M. A. (2021). The Impact of Augmented Reality on Fashion and Textile Design Education. International Design Journal, 11(6), Article 3. https://doi.org/10.21608/idj.2021.204886
dc.relation.references7. Jadhav, O., Patil, A., Sam, J., & Kiruthika, M. (2021). Virtual Dressing using Augmented Reality. ITM Web of Conferences, 40, 03028. https://doi.org/10.1051/itmconf/20214003028
dc.relation.references8. Hussain, M. A. I., Khan, B., Wang, Z., & Ding, S. (2020). Woven Fabric Pattern Recognition and Classification Based on Deep Convolutional Neural Networks. Electronics, 9, 1048. https://doi.org/10.3390/electronics9061048
dc.relation.references9. Birjuk, A. (2023, September 25). Unseen and unheard: The power of anti-surveillance clothing. Retrieved from: https://medium.com/@alinabirjuk/unseen-and-unheard-the-power-of-anti-surveillance-clothing-156570fefb0 e
dc.relation.references10. Rajasekhar, K. E. (2020, August 21). Convolutional Neural Network. Retrieved from: https://developersbreach.com/convolution-neural-network-deep-learning/
dc.relation.references11. JetBtains (n.d.). PyCharm – The Python IDE for Professional Developers. Retrieved from: https://www.jetbrains.com/pycharm/
dc.relation.references12. Jupyter (n.d.). The Jupyter Notebook is a web-based interactive computing platform. Retrieved from: https://jupyter.org/
dc.relation.references13. TensorFlow (n.d.). Create production-grade machine learning models with TensorFlow. Retrieved from: https://www.tensorflow.org/
dc.relation.references14. Keras (n.d.). Keras – deep learning API. Retrieved from: https://keras.io
dc.relation.references15. Nvidia (n.d.). CUDA Toolkit. Retrieved from: https://developer.nvidia.com/cuda-toolkit
dc.relation.references16. Nvidia (n.d.). CUDA Deep Neural Network library. Retrieved from: https://developer.nvidia.com/cudnn
dc.relation.references17. Loewen, C., Wojciakowski, M., & others. (2023, August 28). Windows Subsystem for Linux. Retrieved from: https://learn.microsoft.com/en-gb/windows/wsl/install
dc.relation.references18. Sebastián Ramírez (n.d.). FastAPI framework, high performance, easy to learn, fast to code, ready for production. Retrieved from: https://fastapi.tiangolo.com/
dc.relation.references19. Gatis, D. (2020). Rembg – a tool to remove images background. Retrieved from: 20. Hunter, J. D. (2007). Matplotlib: A 2D graphics environment. Computing in Science & Engineering, 9(3), 90‑95. https://doi.org/10.1109/MCSE.2007.55
dc.relation.references20. Teslyuk, V. M., & Ivasiv, S. S. (2023). System for recognizing clothing items and their colors in an image. Ukrainian Journal of Information Technology, 5(2), 25‑32. https://doi.org/10.23939/ujit2023.02.025
dc.relation.references21. Stearns, L., Findlater, L., & Froehlich, J. E. (2018). Applying Transfer Learning to Recognize Clothing Patterns Using a Finger-Mounted Camera. In Proceedings of the 20th International ACM SIGACCESS Conference on Computers and Accessibility (ASSETS '18) (pp. 349‑351). Association for Computing Machinery. https://doi.org/10.1145/3234695.3241015
dc.relation.references22. Dey, E., Tawhid, M. N. A., & Shoyaib, M. (2015). An Automated System for Garment Texture Design Class Identification. Computers, 4, 265-282. https://doi.org/10.3390/computers4030265
dc.relation.references23. Chen, H., Gallagher, A., & Girod, B. (2012). Describing Clothing by Semantic Attributes. In 2012 IEEE Conference on Computer Vision and Pattern Recognition (pp. 609-623). https://doi.org/10.1007/978-3-642-33712-3_44
dc.relation.references24. Manfredi, M., Grana, C., Calderara, S., & et al. (2014). A complete system for garment segmentation and color classification. Machine Vision and Applications, 25, 955‑969. https://doi.org/10.1007/s00138-013-0580-3
dc.relation.references25. Islam, S. S., Dey, E. K., Tawhid, M. N. A., & Hossain, B. M. M. (2017). A CNN Based Approach for Garments Texture Design Classification. Advances in Technology Innovation, 2(4), 119‑125. Retrieved from: https://ojs.imeti.org/index.php/AITI/article/view/366
dc.relation.references26. Datagen (n.d.). Understanding VGG16: Concepts, Architecture, and Performance. Retrieved from: https://datagen.tech/guides/computer-vision/vgg16/
dc.relation.references27. Dr. Info Sec. (2021, March 6). VGG-19 Convolutional Neural Network. Retrieved from: https://blog.techcraft.org/vgg-19-convolutional-neural-network/
dc.relation.references28. Narein, A. T. (2021). Inception V3 Model Architecture. Retrieved from: https://iq.opengenus.org/inception-v3-model-architecture/#google_vignette
dc.relation.references29. Chollet, F. (2017). Xception: Deep Learning with Depthwise Separable Convolutions. In 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (pp. 1800-1807). Honolulu, HI, USA. https://doi.org/10.1109/CVPR.2017.195
dc.relation.references30. Datagen (n.d.). ResNet-50: The Basics and a Quick Tutorial. Retrieved from: https://datagen.tech/guides/computer-vision/resnet-50/
dc.relation.references31. O'Malley, T., Bursztein, E., Long, J., Chollet, F., Jin, H., Invernizzi, L., & others. (2019). KerasTuner. Retrieved from: https://github.com/keras-team/keras-tuner
dc.relation.referencesen1. Zakaryan, V. (2022, June 17). AI Clothing Detection: Use Cases for Fashion and E-commerce. Retrieved from: https://postindustria.com/ai-clothing-detection-use-cases-for-fashion-and-e-commerce/
dc.relation.referencesen2. Wang, H. (2018, July 30). Rule-free sewing pattern adjustment with precision and efficiency. ACM Transactions on Graphics, 37, 1–13. https://doi.org/10.1145/3197517.3201320
dc.relation.referencesen3. Liu, L., Xu, X., Lin, Z., Liang, J., & Yan, S. (2023, December). Towards Garment Sewing Pattern Reconstruction from a Single Image. ACM Transactions on Graphics, 42(6), Article 200, 15 pages. https://doi.org/10.1145/3618319
dc.relation.referencesen4. Shen, Y., Liang, J., & Lin, M. (2020). GAN-Based Garment Generation Using Sewing Pattern Images. https://doi.org/10.1007/978-3-030-58523-5_14
dc.relation.referencesen5. Mehta, K., & Panda, S. P. (2022). Sentiment Analysis on E-Commerce Apparels using Convolutional Neural Network. International Journal of Computing, 21(2), 234-241. https://doi.org/10.47839/ijc.21.2.2592
dc.relation.referencesen6. El-Nahas, M. M. A. (2021). The Impact of Augmented Reality on Fashion and Textile Design Education. International Design Journal, 11(6), Article 3. https://doi.org/10.21608/idj.2021.204886
dc.relation.referencesen7. Jadhav, O., Patil, A., Sam, J., & Kiruthika, M. (2021). Virtual Dressing using Augmented Reality. ITM Web of Conferences, 40, 03028. https://doi.org/10.1051/itmconf/20214003028
dc.relation.referencesen8. Hussain, M. A. I., Khan, B., Wang, Z., & Ding, S. (2020). Woven Fabric Pattern Recognition and Classification Based on Deep Convolutional Neural Networks. Electronics, 9, 1048. https://doi.org/10.3390/electronics9061048
dc.relation.referencesen9. Birjuk, A. (2023, September 25). Unseen and unheard: The power of anti-surveillance clothing. Retrieved from: https://medium.com/@alinabirjuk/unseen-and-unheard-the-power-of-anti-surveillance-clothing-156570fefb0 e
dc.relation.referencesen10. Rajasekhar, K. E. (2020, August 21). Convolutional Neural Network. Retrieved from: https://developersbreach.com/convolution-neural-network-deep-learning/
dc.relation.referencesen11. JetBtains (n.d.). PyCharm – The Python IDE for Professional Developers. Retrieved from: https://www.jetbrains.com/pycharm/
dc.relation.referencesen12. Jupyter (n.d.). The Jupyter Notebook is a web-based interactive computing platform. Retrieved from: https://jupyter.org/
dc.relation.referencesen13. TensorFlow (n.d.). Create production-grade machine learning models with TensorFlow. Retrieved from: https://www.tensorflow.org/
dc.relation.referencesen14. Keras (n.d.). Keras – deep learning API. Retrieved from: https://keras.io
dc.relation.referencesen15. Nvidia (n.d.). CUDA Toolkit. Retrieved from: https://developer.nvidia.com/cuda-toolkit
dc.relation.referencesen16. Nvidia (n.d.). CUDA Deep Neural Network library. Retrieved from: https://developer.nvidia.com/cudnn
dc.relation.referencesen17. Loewen, C., Wojciakowski, M., & others. (2023, August 28). Windows Subsystem for Linux. Retrieved from: https://learn.microsoft.com/en-gb/windows/wsl/install
dc.relation.referencesen18. Sebastián Ramírez (n.d.). FastAPI framework, high performance, easy to learn, fast to code, ready for production. Retrieved from: https://fastapi.tiangolo.com/
dc.relation.referencesen19. Gatis, D. (2020). Rembg – a tool to remove images background. Retrieved from: 20. Hunter, J. D. (2007). Matplotlib: A 2D graphics environment. Computing in Science & Engineering, 9(3), 90‑95. https://doi.org/10.1109/MCSE.2007.55
dc.relation.referencesen20. Teslyuk, V. M., & Ivasiv, S. S. (2023). System for recognizing clothing items and their colors in an image. Ukrainian Journal of Information Technology, 5(2), 25‑32. https://doi.org/10.23939/ujit2023.02.025
dc.relation.referencesen21. Stearns, L., Findlater, L., & Froehlich, J. E. (2018). Applying Transfer Learning to Recognize Clothing Patterns Using a Finger-Mounted Camera. In Proceedings of the 20th International ACM SIGACCESS Conference on Computers and Accessibility (ASSETS '18) (pp. 349‑351). Association for Computing Machinery. https://doi.org/10.1145/3234695.3241015
dc.relation.referencesen22. Dey, E., Tawhid, M. N. A., & Shoyaib, M. (2015). An Automated System for Garment Texture Design Class Identification. Computers, 4, 265-282. https://doi.org/10.3390/computers4030265
dc.relation.referencesen23. Chen, H., Gallagher, A., & Girod, B. (2012). Describing Clothing by Semantic Attributes. In 2012 IEEE Conference on Computer Vision and Pattern Recognition (pp. 609-623). https://doi.org/10.1007/978-3-642-33712-3_44
dc.relation.referencesen24. Manfredi, M., Grana, C., Calderara, S., & et al. (2014). A complete system for garment segmentation and color classification. Machine Vision and Applications, 25, 955‑969. https://doi.org/10.1007/s00138-013-0580-3
dc.relation.referencesen25. Islam, S. S., Dey, E. K., Tawhid, M. N. A., & Hossain, B. M. M. (2017). A CNN Based Approach for Garments Texture Design Classification. Advances in Technology Innovation, 2(4), 119‑125. Retrieved from: https://ojs.imeti.org/index.php/AITI/article/view/366
dc.relation.referencesen26. Datagen (n.d.). Understanding VGG16: Concepts, Architecture, and Performance. Retrieved from: https://datagen.tech/guides/computer-vision/vgg16/
dc.relation.referencesen27. Dr. Info Sec. (2021, March 6). VGG-19 Convolutional Neural Network. Retrieved from: https://blog.techcraft.org/vgg-19-convolutional-neural-network/
dc.relation.referencesen28. Narein, A. T. (2021). Inception V3 Model Architecture. Retrieved from: https://iq.opengenus.org/inception-v3-model-architecture/#google_vignette
dc.relation.referencesen29. Chollet, F. (2017). Xception: Deep Learning with Depthwise Separable Convolutions. In 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (pp. 1800-1807). Honolulu, HI, USA. https://doi.org/10.1109/CVPR.2017.195
dc.relation.referencesen30. Datagen (n.d.). ResNet-50: The Basics and a Quick Tutorial. Retrieved from: https://datagen.tech/guides/computer-vision/resnet-50/
dc.relation.referencesen31. O'Malley, T., Bursztein, E., Long, J., Chollet, F., Jin, H., Invernizzi, L., & others. (2019). KerasTuner. Retrieved from: https://github.com/keras-team/keras-tuner
dc.relation.urihttps://postindustria.com/ai-clothing-detection-use-cases-for-fashion-and-e-commerce/
dc.relation.urihttps://doi.org/10.1145/3197517.3201320
dc.relation.urihttps://doi.org/10.1145/3618319
dc.relation.urihttps://doi.org/10.1007/978-3-030-58523-5_14
dc.relation.urihttps://doi.org/10.47839/ijc.21.2.2592
dc.relation.urihttps://doi.org/10.21608/idj.2021.204886
dc.relation.urihttps://doi.org/10.1051/itmconf/20214003028
dc.relation.urihttps://doi.org/10.3390/electronics9061048
dc.relation.urihttps://medium.com/@alinabirjuk/unseen-and-unheard-the-power-of-anti-surveillance-clothing-156570fefb0
dc.relation.urihttps://developersbreach.com/convolution-neural-network-deep-learning/
dc.relation.urihttps://www.jetbrains.com/pycharm/
dc.relation.urihttps://jupyter.org/
dc.relation.urihttps://www.tensorflow.org/
dc.relation.urihttps://keras.io
dc.relation.urihttps://developer.nvidia.com/cuda-toolkit
dc.relation.urihttps://developer.nvidia.com/cudnn
dc.relation.urihttps://learn.microsoft.com/en-gb/windows/wsl/install
dc.relation.urihttps://fastapi.tiangolo.com/
dc.relation.urihttps://doi.org/10.1109/MCSE.2007.55
dc.relation.urihttps://doi.org/10.23939/ujit2023.02.025
dc.relation.urihttps://doi.org/10.1145/3234695.3241015
dc.relation.urihttps://doi.org/10.3390/computers4030265
dc.relation.urihttps://doi.org/10.1007/978-3-642-33712-3_44
dc.relation.urihttps://doi.org/10.1007/s00138-013-0580-3
dc.relation.urihttps://ojs.imeti.org/index.php/AITI/article/view/366
dc.relation.urihttps://datagen.tech/guides/computer-vision/vgg16/
dc.relation.urihttps://blog.techcraft.org/vgg-19-convolutional-neural-network/
dc.relation.urihttps://iq.opengenus.org/inception-v3-model-architecture/#google_vignette
dc.relation.urihttps://doi.org/10.1109/CVPR.2017.195
dc.relation.urihttps://datagen.tech/guides/computer-vision/resnet-50/
dc.relation.urihttps://github.com/keras-team/keras-tuner
dc.rights.holder© Національний університет “Львівська політехніка”, 2024
dc.subjectVisual Geometry Group 16 (VGG16)
dc.subjectкласифікація патернів
dc.subjectтонке налаштування
dc.subjectперенесення навчання
dc.subjectзгорткова нейронна мережа
dc.subjectVisual Geometry Group 16 (VGG16)
dc.subjectpatterns classification
dc.subjectfine-tuning
dc.subjecttransfer learning
dc.subjectconvolutional neural network
dc.subject.udc004.02
dc.titleМоделі та засоби класифікації патернів елементів одягу з використанням машинного навчання
dc.title.alternativeModels and means of clothing elements patterns classification using machine learning
dc.typeArticle

Files

Original bundle

Now showing 1 - 2 of 2
Loading...
Thumbnail Image
Name:
2024v6n1_Teslyuk_V_M-Models_and_means_of_clothing_37-47.pdf
Size:
1.64 MB
Format:
Adobe Portable Document Format
Loading...
Thumbnail Image
Name:
2024v6n1_Teslyuk_V_M-Models_and_means_of_clothing_37-47__COVER.png
Size:
1.7 MB
Format:
Portable Network Graphics

License bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
license.txt
Size:
1.8 KB
Format:
Plain Text
Description: