Вдосконалення методу розпізнавання емоцій на базі нейронних мереж

dc.citation.epage64
dc.citation.issue1
dc.citation.journalTitleУкраїнський журнал інформаційних технологій
dc.citation.spage58
dc.citation.volume6
dc.contributor.affiliationНаціональний університет “Львівська політехніка”
dc.contributor.affiliationLviv Polytechnic National University
dc.contributor.authorЯремченко, О. Д.
dc.contributor.authorПукач, П. Я.
dc.contributor.authorYaremchenko, O. D.
dc.contributor.authorPukach, P. Ya.
dc.coverage.placenameЛьвів
dc.coverage.placenameLviv
dc.date.accessioned2025-05-21T08:02:13Z
dc.date.created2024-02-28
dc.date.issued2024-02-28
dc.description.abstractУ статті проаналізовано використання мікровиразів – тонких рухів обличчя, які важко помітити людському оку, а ще важче одразу проаналізувати, щоб оцінити психологічний стан за допомогою методів штучного інтелекту. Навіть спеціалістам у галузі не завжди ідеально це вдається, адже зміна цих мікровиразів відбувається за 1/5 до 1/3 секунди. Дослідження спрямоване на вдосконалення аналізу мікроміміки для точної ідентифікації емоцій і психологічного стану. Наведено огляд реалізованих технологічних рішень на базі CNN та запропоновано метод для їх покращення. Експериментальна перевірка, здійснена на відеозаписах людей, які переживають різні емоції, підтвердила високу точність розробленого методу в розпізнаванні емоцій і психологічного стану. Незважаючи на проблеми, пов’язані з дефіцитом наборів даних мікровиразів і тонкістю рухів обличчя, розроблено модель CapsuleNet для розпізнавання мікровиразів, сформовано архітектуру системи та здійснено тестування. Завдяки об’єднанню трьох основних наборів даних (SMIC, CASME II і SAMM) в уніфіковану кросбазу даних запропонований у роботі метод перевіряє можливість узагальнення моделі за різними предметними характеристиками. Продуктивність CapsuleNet, оцінена за допомогою кросбазового порівняльного аналізу та перевірки Leave-One-Object-Out, істотно перевершує базову (LBP-TOP) та інші вдосконалені моделі CNN. У роботі показано, що продуктивність розробленої моделі, визначена незваженим середнім показником запам’ятовування та результатами F1, перевершує як базову лінію LBP-TOP, так і інші передові моделі CNN. У комплексній системі розпізнавання мікровиразів cпершу обробляємо дані, щоб ідентифікувати верхівкові кадри в послідовностях і виокремити область обличчя на цих кадрах. Ці оброблені зображення обличчя потім подаються в CapsuleNet для класифікації. Результати роботи розвивають та доповнюють методи емоційного штучного інтелекту, покращуючи оцінку за допомогою мікроміміки психологічного стану, який впливає на психічне здоров’я, взаємодію людини з комп’ютером і соціальну робототехніку. Ця технологія має потенціал для розвитку та розширення у різних галузях, зокрема, надає додаткову можливість для фахівців, котрі працюють з людьми, стежити за їхньою продуктивністю, психологічним станом, та оцінювати стрес.
dc.description.abstractThis article analyzes the use of microexpressions – subtle facial movements that are difficult for the human eye to notice, and even more difficult to immediately analyze, even specialists in the field do not always succeed in this perfectly, because their speed is only 1/5 to 1/3 of a second, for assessment of psychological state using artificial intelligence methods. The research is aimed at improving the analysis of micro-mimicry for accurate identification of emotions and psychological state. An overview of implemented technological solutions based on CNN was conducted, and a method for their improvement was found. An experimental test conducted on video recordings of people experiencing various emotions showed the high accuracy of the developed method in recognizing emotions and psychological state. Despite the challenges of the scarcity of microexpression datasets and the subtlety of facial movements, the paper presents a CapsuleNet model for microexpression recognition, builds a system architecture, and conducts testing. By combining three main data sets (SMIC, CASME II and SAMM) into a unified cross-database, the method developed in the work tests the possibility of generalization of the model by different subject characteristics. The performance of CapsuleNet, evaluated by cross-baseline benchmarking and Leave-One-Object-Out validation, significantly outperforms the baseline (LBP-TOP) and other improved of an CNN models. The paper shows that the performance of the developed model, determined by unweighted average recall and F1 scores, outperforms both the LBP-TOP baseline and other state-of-the-art CNN models. In a comprehensive microexpression recognition system. First, we process the data to identify the peak frames in the sequences and isolate the face region in these frames. These processed face images are then moved to CapsuleNet for the classification. The results of the work is to develop and complement methods of emotional artificial intelligence, offering new insights into micromimic assessment of psychological states that affect mental health, human-computer interaction, and social robotics. This technology has potential for development and expansion. This is an additional opportunity for companies that work with people and it is important for them to monitor their productivity, as it is directly related to the psychological state.
dc.format.extent58-64
dc.format.pages7
dc.identifier.citationЯремченко О. Д. Вдосконалення методу розпізнавання емоцій на базі нейронних мереж / О. Д. Яремченко, П. Я. Пукач // Український журнал інформаційних технологій. — Львів : Видавництво Львівської політехніки, 2024. — Том 6. — № 1. — С. 58–64.
dc.identifier.citationenYaremchenko O. D. Improvement of emotion recognition methods based on neural networks / O. D. Yaremchenko, P. Ya. Pukach // Ukrainian Journal of Information Tecnology. — Lviv : Lviv Politechnic Publishing House, 2024. — Vol 6. — No 1. — P. 58–64.
dc.identifier.doidoi.org/10.23939/ujit2024.01.058
dc.identifier.urihttps://ena.lpnu.ua/handle/ntb/64857
dc.language.isouk
dc.publisherВидавництво Львівської політехніки
dc.publisherLviv Politechnic Publishing House
dc.relation.ispartofУкраїнський журнал інформаційних технологій, 1 (6), 2024
dc.relation.ispartofUkrainian Journal of Information Tecnology, 1 (6), 2024
dc.relation.references1. Matsumoto, D., Hwang, H. S. (2011). Evidence for training the ability to read microexpressions of emotion. Motivation Emotion, 35, 181–191. https://doi.org/10.1007/s11031-011-9212-2
dc.relation.references2. Russell, T. A., Chu, E., & Phillips, M. L. (2006). A pilot study to investigate the effectiveness of emotion recognition remediation in schizophrenia using the micro-expression training tool. British Journal of Clinical Psychology, 45(4), 579583. https://doi.org/10.1348/014466505X90866
dc.relation.references3. Weinberger, S. (2010). Airport security: intent deceive?. Nature, 465, 412–415. https://doi.org/10.1038/465412a
dc.relation.references4. Ekman, Paul. (2009). Lie catching and microexpressions. In The Philosophy of Deception, ed C.W. Martin (pp. 118–133). Oxford: Oxford University Press. https://doi.org/10.1093/acprof:oso/9780195327939.003.0008
dc.relation.references5. Ekman, P. "Telling Lies: Clues to Deceit in the Marketplace, Politics, and Marriage," revised ed.; WW Norton Company: New York, NY, USA, 2009.
dc.relation.references6. Davison, A. K., Lansley, C., Costen, N., Tan, K. & Yap, M. H. (2018). Samm: A spontaneous micro-facial movement dataset. IEEE Transactions on Affective Computing, 9(1), 116–129. https://doi.org/10.1109/TAFFC.2016.2573832
dc.relation.references7. Yan, W.-J., Li, X., Wang, S.-J., Zhao, G., Liu, Y.-J., Chen, Y.-H., & Fu, X. (2014). Casme ii: An improved spontaneous micro-expression database and the baseline evaluation. PloS one, 9(1). https://doi.org/10.1371/journal.pone.0086041
dc.relation.references8. Li X, Pfister T, Huang X, Zhao G, Pietika inen M (2013). A Spontaneous Micro-expression Database: Inducement, Collection and Baseline, 10th Proc Int Conf Autom Face Gesture Recognit (FG2013). Shanghai, China. https://doi.org/10.1109/FG.2013.6553717
dc.relation.references9. Davison, A., Merghani, W., & Yap, M. H. (2018). Objective classes for microfacial expression recognition. Journal of Imaging, 4(10), 119. https://doi.org/10.3390/jimaging4100119
dc.relation.references10. Xi, E., Bing, S., & Jin, Y. (2017). Capsule network performance on complex data. arXiv preprint arXiv:1712.03480. https://doi.org/10.48550/arXiv.1712.03480
dc.relation.references11. Zhao, G., & Pietikainen, M. (2007). Dynamic texture recognition using local binary patterns with an application to facial expressions. IEEE Trans. on PAMI, 29(6), 915–928. https://doi.org/10.1109/TPAMI.2007.1110
dc.relation.references12. Wang, Y., See, J., Phan, C.W. et al. (2014). LBP with Six Intersection Points: Reducing Redundant Information in LBP-TOP for Microexpression Recognition, 12th Asian Conference on Computer Vision 2014, Singapore, Singapore. https://doi.org/10.1007/978-3-319-16865-4_34
dc.relation.references13. Li, X., Hong, X., Moilanen, A., Huang, X., Pfister, T., Zhao, G., & Pietikäinen, M. (2017). Towards Reading Hidden Emotions: A Comparative Study of Spontaneous Micro-expression Spotting and Recognition Methods, IEEE Transactions on Affective Computing, 9(4), 563–577. https://doi.org/10.1109/TAFFC.2017.2667642
dc.relation.references14. Afshar, P., Mohammadi, A., & Plataniotis, K. N. (2018). Brain tumor type classification via capsule networks. 2018 25th IEEE International Conference on Image Processing (ICIP), Athens, Greece, pp. 3129–3133. https://doi.org/10.1109/ICIP.2018.8451379
dc.relation.references15. Borza, Diana, Danescu, Radu, Itu, Razvan, & Darabant, Adrian Sergiu. (2017). High-Speed Video System for Micro-Expression Detection and Recognition. Sensors 2017, 17(12), 2913. https://doi.org/10.3390/s17122913
dc.relation.references16. Sabour, S., Frosst, N., & Hinton, G. E. (2017). Dynamic Routing Between Capsules. ArXiv, abs/1710.09829. https://doi.org/10.48550/arXiv.1710.09829
dc.relation.references17. Simonyan, K., & Zisserman, A. (2014). Very Deep Convolutional Networks for Large-Scale Image Recognition. ArXiv preprint arXiv:1512.03385. https://doi.org/10.48550/arXiv.1409.1556
dc.relation.references18. Wang, Y., Sun, A., Han, J., Liu, Y., & Zhu, X. (2018). Sentiment analysis by capsules. WWW'18: Proceedings of the 2018 World Wide Web Conference, Lyon, France, 1165–1174. https://doi.org/10.1145/3178876.3186015
dc.relation.referencesen1. Matsumoto, D., Hwang, H. S. (2011). Evidence for training the ability to read microexpressions of emotion. Motivation Emotion, 35, 181–191. https://doi.org/10.1007/s11031-011-9212-2
dc.relation.referencesen2. Russell, T. A., Chu, E., & Phillips, M. L. (2006). A pilot study to investigate the effectiveness of emotion recognition remediation in schizophrenia using the micro-expression training tool. British Journal of Clinical Psychology, 45(4), 579583. https://doi.org/10.1348/014466505X90866
dc.relation.referencesen3. Weinberger, S. (2010). Airport security: intent deceive?. Nature, 465, 412–415. https://doi.org/10.1038/465412a
dc.relation.referencesen4. Ekman, Paul. (2009). Lie catching and microexpressions. In The Philosophy of Deception, ed C.W. Martin (pp. 118–133). Oxford: Oxford University Press. https://doi.org/10.1093/acprof:oso/9780195327939.003.0008
dc.relation.referencesen5. Ekman, P. "Telling Lies: Clues to Deceit in the Marketplace, Politics, and Marriage," revised ed.; WW Norton Company: New York, NY, USA, 2009.
dc.relation.referencesen6. Davison, A. K., Lansley, C., Costen, N., Tan, K. & Yap, M. H. (2018). Samm: A spontaneous micro-facial movement dataset. IEEE Transactions on Affective Computing, 9(1), 116–129. https://doi.org/10.1109/TAFFC.2016.2573832
dc.relation.referencesen7. Yan, W.-J., Li, X., Wang, S.-J., Zhao, G., Liu, Y.-J., Chen, Y.-H., & Fu, X. (2014). Casme ii: An improved spontaneous micro-expression database and the baseline evaluation. PloS one, 9(1). https://doi.org/10.1371/journal.pone.0086041
dc.relation.referencesen8. Li X, Pfister T, Huang X, Zhao G, Pietika inen M (2013). A Spontaneous Micro-expression Database: Inducement, Collection and Baseline, 10th Proc Int Conf Autom Face Gesture Recognit (FG2013). Shanghai, China. https://doi.org/10.1109/FG.2013.6553717
dc.relation.referencesen9. Davison, A., Merghani, W., & Yap, M. H. (2018). Objective classes for microfacial expression recognition. Journal of Imaging, 4(10), 119. https://doi.org/10.3390/jimaging4100119
dc.relation.referencesen10. Xi, E., Bing, S., & Jin, Y. (2017). Capsule network performance on complex data. arXiv preprint arXiv:1712.03480. https://doi.org/10.48550/arXiv.1712.03480
dc.relation.referencesen11. Zhao, G., & Pietikainen, M. (2007). Dynamic texture recognition using local binary patterns with an application to facial expressions. IEEE Trans. on PAMI, 29(6), 915–928. https://doi.org/10.1109/TPAMI.2007.1110
dc.relation.referencesen12. Wang, Y., See, J., Phan, C.W. et al. (2014). LBP with Six Intersection Points: Reducing Redundant Information in LBP-TOP for Microexpression Recognition, 12th Asian Conference on Computer Vision 2014, Singapore, Singapore. https://doi.org/10.1007/978-3-319-16865-4_34
dc.relation.referencesen13. Li, X., Hong, X., Moilanen, A., Huang, X., Pfister, T., Zhao, G., & Pietikäinen, M. (2017). Towards Reading Hidden Emotions: A Comparative Study of Spontaneous Micro-expression Spotting and Recognition Methods, IEEE Transactions on Affective Computing, 9(4), 563–577. https://doi.org/10.1109/TAFFC.2017.2667642
dc.relation.referencesen14. Afshar, P., Mohammadi, A., & Plataniotis, K. N. (2018). Brain tumor type classification via capsule networks. 2018 25th IEEE International Conference on Image Processing (ICIP), Athens, Greece, pp. 3129–3133. https://doi.org/10.1109/ICIP.2018.8451379
dc.relation.referencesen15. Borza, Diana, Danescu, Radu, Itu, Razvan, & Darabant, Adrian Sergiu. (2017). High-Speed Video System for Micro-Expression Detection and Recognition. Sensors 2017, 17(12), 2913. https://doi.org/10.3390/s17122913
dc.relation.referencesen16. Sabour, S., Frosst, N., & Hinton, G. E. (2017). Dynamic Routing Between Capsules. ArXiv, abs/1710.09829. https://doi.org/10.48550/arXiv.1710.09829
dc.relation.referencesen17. Simonyan, K., & Zisserman, A. (2014). Very Deep Convolutional Networks for Large-Scale Image Recognition. ArXiv preprint arXiv:1512.03385. https://doi.org/10.48550/arXiv.1409.1556
dc.relation.referencesen18. Wang, Y., Sun, A., Han, J., Liu, Y., & Zhu, X. (2018). Sentiment analysis by capsules. WWW'18: Proceedings of the 2018 World Wide Web Conference, Lyon, France, 1165–1174. https://doi.org/10.1145/3178876.3186015
dc.relation.urihttps://doi.org/10.1007/s11031-011-9212-2
dc.relation.urihttps://doi.org/10.1348/014466505X90866
dc.relation.urihttps://doi.org/10.1038/465412a
dc.relation.urihttps://doi.org/10.1093/acprof:oso/9780195327939.003.0008
dc.relation.urihttps://doi.org/10.1109/TAFFC.2016.2573832
dc.relation.urihttps://doi.org/10.1371/journal.pone.0086041
dc.relation.urihttps://doi.org/10.1109/FG.2013.6553717
dc.relation.urihttps://doi.org/10.3390/jimaging4100119
dc.relation.urihttps://doi.org/10.48550/arXiv.1712.03480
dc.relation.urihttps://doi.org/10.1109/TPAMI.2007.1110
dc.relation.urihttps://doi.org/10.1007/978-3-319-16865-4_34
dc.relation.urihttps://doi.org/10.1109/TAFFC.2017.2667642
dc.relation.urihttps://doi.org/10.1109/ICIP.2018.8451379
dc.relation.urihttps://doi.org/10.3390/s17122913
dc.relation.urihttps://doi.org/10.48550/arXiv.1710.09829
dc.relation.urihttps://doi.org/10.48550/arXiv.1409.1556
dc.relation.urihttps://doi.org/10.1145/3178876.3186015
dc.rights.holder© Національний університет “Львівська політехніка”, 2024
dc.subjectCapsuleNet
dc.subjectмікроміміка
dc.subjectемоційний штучний інтелект
dc.subjectрозпізнавання лицьових емоцій
dc.subjectвзаємодія людина-комп’ютер
dc.subjectCapsuleNet
dc.subjectmicro-mimics
dc.subjectemotional AI
dc.subjectfacial expression recognition
dc.subjecthuman-computer interaction
dc.subject.udc004.8
dc.subject.udc004.9
dc.titleВдосконалення методу розпізнавання емоцій на базі нейронних мереж
dc.title.alternativeImprovement of emotion recognition methods based on neural networks
dc.typeArticle

Files

Original bundle

Now showing 1 - 2 of 2
Loading...
Thumbnail Image
Name:
2024v6n1_Yaremchenko_O_D-Improvement_of_emotion_58-64.pdf
Size:
1.24 MB
Format:
Adobe Portable Document Format
Loading...
Thumbnail Image
Name:
2024v6n1_Yaremchenko_O_D-Improvement_of_emotion_58-64__COVER.png
Size:
1.76 MB
Format:
Portable Network Graphics

License bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
license.txt
Size:
1.81 KB
Format:
Plain Text
Description: