Метод формування набору даних для перевірки якості вивчення мовними моделями транзитивного відношення у контексті задачі логічного висновку

dc.citation.epage60
dc.citation.issue14
dc.citation.journalTitleВісник Національного університету “Львівська політехніка”. Серія: Інформаційні системи та мережі
dc.citation.spage46
dc.contributor.affiliationНаціональний університет “Львівська політехніка”
dc.contributor.affiliationУніверситет Оснабрюка
dc.contributor.affiliationLviv Polytechnic National University
dc.contributor.affiliationOsnabrück University
dc.contributor.authorБерко, Андрій
dc.contributor.authorЗдебський, Петро
dc.contributor.authorВисоцька, Вікторія
dc.contributor.authorBerko, Andrii
dc.contributor.authorZdebskyi, Petro
dc.contributor.authorVysotska, Victoria
dc.coverage.placenameЛьвів
dc.coverage.placenameLviv
dc.date.accessioned2025-09-12T07:22:06Z
dc.date.created2023-02-28
dc.date.issued2023-02-28
dc.description.abstractРозроблено метод формування набору даних для перевірки вивчення готовими моделями залежності транзитивності. Сформований набір даних використано для тестування якості вивчення моделями залежності транзитивності у задачі логічного висновку (NLI). Тестування набору даних розміром 10 000 зразків (MultiNLI) відбувалось на моделі RoBerta. Також досліджено, що у задачі логічного висновку клас подібний є більш спрямованим, ніж протиріччя і нейтральний. Бо якщо поміняти місцями передумову і гіпотезу у наборі даних, то точність моделі RoBerta зменшується на коефіцієнт 2.97,1.17,1.26 для класу подібний ((0.98→0.33), нейтральний (0.90→0.77) та протиріччя (0.98→0.78) відповідно. Час ітерації дослідження становить 0,0028 с, тому лише половина набору даних потребує приблизно 84 год обчислень. Це дослідження актуальне, оскільки можливість моделей природної мови досліджувати такі залежності, як транзитивність, яка не задана явно у наборі тренувальних даних, є важливим елементом вміння моделей узагальнювати. Виявлено, що модель RoBerta добре вивчає транзитивні залежності у задачі логічного висновку, бо на всіх зразках зі сформованого набору даних правильно класифікувала належність до класів подібний, протиріччя та нейтральний.
dc.description.abstractA method for data set formation has been developed to verify the ability of pre-trained models to learn transitivity dependencies. The generated data set was used to test the quality of learning the transitivity dependencies in the task of natural language inference (NLI). Testing of a data set with a size of 10,000 samples (MultiNLI) used to test the RoBerta model. It was found that this model is good at studying transitive dependencies in the task of logical inference because all samples from the formed dataset were correctly classified as belonging to the class similar, contradiction and neutral. It was also investigated that in the task of logical inference, the class similarity is more directed than contradiction and neutral. Because if the premise and hypothesis in the data set are swapped, the accuracy of the RoBerta model decreases by a factor of 2.97,1.17,1.26 for the similar (0.98→0.33), neutral (0.90→0.77), and contradiction (0.98→0.78) classes, respectively. The study iteration time is 0.0028 seconds, so only half of the data set requires approximately 84 hours of collection. This research is relevant because the ability of natural language models to explore such dependencies as transitivity, which is not explicitly specified in the training data set, is an important element of the model’s ability to generalize. It was found that RoBerta’s model is good at studying transitive dependencies in the logical inference task because it correctly classified belonging to the class similar, contradiction, and neutral on all samples from the generated data set.
dc.format.extent46-60
dc.format.pages15
dc.identifier.citationБерко А. Метод формування набору даних для перевірки якості вивчення мовними моделями транзитивного відношення у контексті задачі логічного висновку / Андрій Берко, Петро Здебський, Вікторія Висоцька // Вісник Національного університету “Львівська політехніка”. Серія: Інформаційні системи та мережі. — Львів : Видавництво Львівської політехніки, 2023. — № 14. — С. 46–60.
dc.identifier.citationenBerko A. Data set formation method for checking the quality of learning language models of the transitive relation in the logical conclusion problem context / Andrii Berko, Petro Zdebskyi, Victoria Vysotska // Information Systems and Networks. — Lviv : Lviv Politechnic Publishing House, 2023. — No 14. — P. 46–60.
dc.identifier.doidoi.org/10.23939/sisn2023.14.046
dc.identifier.urihttps://ena.lpnu.ua/handle/ntb/111719
dc.language.isouk
dc.publisherВидавництво Львівської політехніки
dc.publisherLviv Politechnic Publishing House
dc.relation.ispartofВісник Національного університету “Львівська політехніка”. Серія: Інформаційні системи та мережі, 14, 2023
dc.relation.ispartofInformation Systems and Networks, 14, 2023
dc.relation.references1. Adina Williams, Nikita Nangia, Samuel R. Bowman, A Broad-Coverage Challenge Corpus for Sentence Understanding through Inference, 2018. https://doi.org/10.48550/arXiv.1704.05426
dc.relation.references2. Doina Tatar, Gabriela Serban, Mihis Andreea, Textual Entailment as a Directional Relation, 2008. URL: https://search.informit.org/doi/abs/10.3316/INFORMIT.836390534395451
dc.relation.references3. Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, Illia Polosukhin, Attention Is All You Need, 2017. URL: https://proceedings.neurips.cc/paper_files/paper/2017/hash/3f5ee243547dee91fbd053c1c4a845aa-Abstract.html
dc.relation.references4. Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova, BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding, 2019. https://doi.org/10.48550/arXiv.1810.04805
dc.relation.references5. Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, Veselin Stoyanov, RoBERTa: A Robustly Optimized BERT Pretraining Approach, 2019. https://doi.org/10.48550/arXiv.1907.11692
dc.relation.references6. William McDaniel Albritton, ICS 241: Discrete Mathematics II, Waterloo, 2015
dc.relation.references7. Petro Zdebskyi, Vasyl Lytvyn, Yevhen Burov, Zoriana Rybchak, Petro Kravets, Olga Lozynska, Roman Holoshchuk, Solomiya Kubinska, Alina Dmytriv, Intelligent System for Semantically Similar Sentences Identification and Generation Based on Machine Learning Methods, CEUR workshop proceedings, Vol. 2604, 317–346, 2020. https://ceur-ws.org/Vol-2604/paper25.pdf
dc.relation.references8. Aikaterini-Lida Kalouli, Annebeth Buis, Livy Real, Explaining Simple Natural Language Inference, 2019. DOI: 10.18653/v1/W19-4016
dc.relation.references9. Tongfei Chen, Zhengping Jiang, Adam Poliak, Keisuke Sakaguchi, Benjamin Van Durme, Uncertain Natural Language Inference, 2020. https://doi.org/10.48550/arXiv.1909.0304
dc.relation.references10. Adam Poliak, A Survey on Recognizing Textual Entailment as an NLP Evaluation, 2020. https://doi.org/10.48550/arXiv.2010.03061
dc.relation.references11. Hanwen Zha, Zhiyu Chen, Xifeng Yan, Large Batch Optimization for Deep Learning: Training BERT in 76 minutes, 2021. https://doi.org/10.48550/arXiv.1904.00962
dc.relation.references12. Leo Z. Liu, Yizhong Wang, Jungo Kasai, Hannaneh Hajishirzi, Noah A. Smith, Probing Across Time: What Does RoBERTa Know and When?, 2021. https://doi.org/10.48550/arXiv.2104.07885
dc.relation.references13. Zdebskyi P., Berko A., Vysotska V. (2023). Investigation of Transitivity Relation in Natural Language Inference, CEUR Workshop Proceedings, Vol. 3396, 334–345.
dc.relation.references14. Bisikalo O., Vysotska V., Burov Y., Kravets P. (2020). Conceptual Model of Process Formation for the Semantics of Sentence in Natural Language, CEUR workshop proceedings, Vol. 2604, 151–177.
dc.relation.references15. Vysotska V., Holoshchuk S., Holoshchuk R. (2021). A comparative analysis for English and Ukrainian texts processing based on semantics and syntax approach. CEUR Workshop Proceedings, Vol. 2870, 311–356.
dc.relation.references16. Rogushina J. (2023). Ontological Approach in the Smart Data Paradigm as a Basis for Open Data Semantic Markup. CEUR Workshop Proceedings, Vol. 3403, 12–27.
dc.relation.references17. Hryhorovych V. (2023). Calculation of the Semantic Distance between Ontology Concepts: Taking into Account Critical Nodes, CEUR Workshop Proceedings, Vol. 3396, 206–216.
dc.relation.references18. Albota S. (2023). Creating a Model of War and Pandemic Apprehension: Textual Semantic Analysis. CEUR Workshop Proceedings, Vol. 3396, 228–243.
dc.relation.references19. Taran A. (2023). Corpus Analysis of Word Semantics. CEUR Workshop Proceedings, Vol. 3396, 373–384.
dc.relation.references20. Basyuk T., Vasilyuk A., Lytvyn V. (2019). Mathematical model of semantic search and search optimization. CEUR Workshop Proceedings, Vol. 2362, 96–105.
dc.relation.references21. Sharonova Natalia, Kyrychenko Iryna, Gruzdo Iryna, Tereshchenko Glib (2022). Generalized Semantic Analysis Algorithm of Natural Language Texts for Various Functional Style Types. CEUR Workshop Proceedings, Vol. 3171, 16–26.
dc.relation.referencesen1. Adina Williams, Nikita Nangia, Samuel R. Bowman, A Broad-Coverage Challenge Corpus for Sentence Understanding through Inference, 2018. https://doi.org/10.48550/arXiv.1704.05426
dc.relation.referencesen2. Doina Tatar, Gabriela Serban, Mihis Andreea, Textual Entailment as a Directional Relation, 2008. URL: https://search.informit.org/doi/abs/10.3316/INFORMIT.836390534395451
dc.relation.referencesen3. Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, Illia Polosukhin, Attention Is All You Need, 2017. URL: https://proceedings.neurips.cc/paper_files/paper/2017/hash/3f5ee243547dee91fbd053c1c4a845aa-Abstract.html
dc.relation.referencesen4. Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova, BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding, 2019. https://doi.org/10.48550/arXiv.1810.04805
dc.relation.referencesen5. Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, Veselin Stoyanov, RoBERTa: A Robustly Optimized BERT Pretraining Approach, 2019. https://doi.org/10.48550/arXiv.1907.11692
dc.relation.referencesen6. William McDaniel Albritton, ICS 241: Discrete Mathematics II, Waterloo, 2015
dc.relation.referencesen7. Petro Zdebskyi, Vasyl Lytvyn, Yevhen Burov, Zoriana Rybchak, Petro Kravets, Olga Lozynska, Roman Holoshchuk, Solomiya Kubinska, Alina Dmytriv, Intelligent System for Semantically Similar Sentences Identification and Generation Based on Machine Learning Methods, CEUR workshop proceedings, Vol. 2604, 317–346, 2020. https://ceur-ws.org/Vol-2604/paper25.pdf
dc.relation.referencesen8. Aikaterini-Lida Kalouli, Annebeth Buis, Livy Real, Explaining Simple Natural Language Inference, 2019. DOI: 10.18653/v1/W19-4016
dc.relation.referencesen9. Tongfei Chen, Zhengping Jiang, Adam Poliak, Keisuke Sakaguchi, Benjamin Van Durme, Uncertain Natural Language Inference, 2020. https://doi.org/10.48550/arXiv.1909.0304
dc.relation.referencesen10. Adam Poliak, A Survey on Recognizing Textual Entailment as an NLP Evaluation, 2020. https://doi.org/10.48550/arXiv.2010.03061
dc.relation.referencesen11. Hanwen Zha, Zhiyu Chen, Xifeng Yan, Large Batch Optimization for Deep Learning: Training BERT in 76 minutes, 2021. https://doi.org/10.48550/arXiv.1904.00962
dc.relation.referencesen12. Leo Z. Liu, Yizhong Wang, Jungo Kasai, Hannaneh Hajishirzi, Noah A. Smith, Probing Across Time: What Does RoBERTa Know and When?, 2021. https://doi.org/10.48550/arXiv.2104.07885
dc.relation.referencesen13. Zdebskyi P., Berko A., Vysotska V. (2023). Investigation of Transitivity Relation in Natural Language Inference, CEUR Workshop Proceedings, Vol. 3396, 334–345.
dc.relation.referencesen14. Bisikalo O., Vysotska V., Burov Y., Kravets P. (2020). Conceptual Model of Process Formation for the Semantics of Sentence in Natural Language, CEUR workshop proceedings, Vol. 2604, 151–177.
dc.relation.referencesen15. Vysotska V., Holoshchuk S., Holoshchuk R. (2021). A comparative analysis for English and Ukrainian texts processing based on semantics and syntax approach. CEUR Workshop Proceedings, Vol. 2870, 311–356.
dc.relation.referencesen16. Rogushina J. (2023). Ontological Approach in the Smart Data Paradigm as a Basis for Open Data Semantic Markup. CEUR Workshop Proceedings, Vol. 3403, 12–27.
dc.relation.referencesen17. Hryhorovych V. (2023). Calculation of the Semantic Distance between Ontology Concepts: Taking into Account Critical Nodes, CEUR Workshop Proceedings, Vol. 3396, 206–216.
dc.relation.referencesen18. Albota S. (2023). Creating a Model of War and Pandemic Apprehension: Textual Semantic Analysis. CEUR Workshop Proceedings, Vol. 3396, 228–243.
dc.relation.referencesen19. Taran A. (2023). Corpus Analysis of Word Semantics. CEUR Workshop Proceedings, Vol. 3396, 373–384.
dc.relation.referencesen20. Basyuk T., Vasilyuk A., Lytvyn V. (2019). Mathematical model of semantic search and search optimization. CEUR Workshop Proceedings, Vol. 2362, 96–105.
dc.relation.referencesen21. Sharonova Natalia, Kyrychenko Iryna, Gruzdo Iryna, Tereshchenko Glib (2022). Generalized Semantic Analysis Algorithm of Natural Language Texts for Various Functional Style Types. CEUR Workshop Proceedings, Vol. 3171, 16–26.
dc.relation.urihttps://doi.org/10.48550/arXiv.1704.05426
dc.relation.urihttps://search.informit.org/doi/abs/10.3316/INFORMIT.836390534395451
dc.relation.urihttps://proceedings.neurips.cc/paper_files/paper/2017/hash/3f5ee243547dee91fbd053c1c4a845aa-Abstract.html
dc.relation.urihttps://doi.org/10.48550/arXiv.1810.04805
dc.relation.urihttps://doi.org/10.48550/arXiv.1907.11692
dc.relation.urihttps://ceur-ws.org/Vol-2604/paper25.pdf
dc.relation.urihttps://doi.org/10.48550/arXiv.1909.0304
dc.relation.urihttps://doi.org/10.48550/arXiv.2010.03061
dc.relation.urihttps://doi.org/10.48550/arXiv.1904.00962
dc.relation.urihttps://doi.org/10.48550/arXiv.2104.07885
dc.rights.holder© Національний університет “Львівська політехніка”, 2023
dc.rights.holder© Берко А. Ю., Здебський П. В., Висоцька В. А., 2023
dc.subjectопрацювання природної мови
dc.subjectречення
dc.subjectтранзитивне відношення
dc.subjectмашинне навчання
dc.subjectтрансформери
dc.subjectMultiNLI
dc.subjectNLI
dc.subjectNLU
dc.subjectNLP
dc.subjectRoBerta
dc.subjectBERT
dc.subjectattention
dc.subjectcoder-decoder
dc.subjectnatural language processing
dc.subjectsentences
dc.subjecttransitive relation
dc.subjectmachine learning
dc.subjecttransformers
dc.subjectMultiNLI
dc.subjectNLI
dc.subjectNLU
dc.subjectNLP
dc.subjectRoBerta
dc.subjectBERT
dc.subjectattention
dc.subjectcoder-decoder
dc.subject.udc004.9
dc.titleМетод формування набору даних для перевірки якості вивчення мовними моделями транзитивного відношення у контексті задачі логічного висновку
dc.title.alternativeData set formation method for checking the quality of learning language models of the transitive relation in the logical conclusion problem context
dc.typeArticle

Files

Original bundle

Now showing 1 - 2 of 2
Loading...
Thumbnail Image
Name:
2023n14_Berko_A-Data_set_formation_method_for_46-60.pdf
Size:
10.79 MB
Format:
Adobe Portable Document Format
Loading...
Thumbnail Image
Name:
2023n14_Berko_A-Data_set_formation_method_for_46-60__COVER.png
Size:
419.01 KB
Format:
Portable Network Graphics

License bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
license.txt
Size:
1.86 KB
Format:
Plain Text
Description: