Дослідження продуктивності нейронної мережі Колмогорова-Арнольда
dc.contributor.advisor | Влах-Вигриновська, Галина Іванівна | |
dc.contributor.affiliation | Національний університет "Львівська політехніка" | |
dc.contributor.author | Литвин, Юрій Андрійович | |
dc.contributor.author | Lytvyn, Yurii Andriiovych | |
dc.coverage.placename | Львів | |
dc.date.accessioned | 2025-01-15T12:13:23Z | |
dc.date.created | 2024 | |
dc.date.issued | 2024 | |
dc.description.abstract | Актуальність теми: У сучасних умовах розвитку штучного інтелекту та машинного навчання дослідження нових архітектур нейронних мереж набуває особливої значущості. Нейронна мережа Колмогорова-Арнольда (KAN), яка базується на теоремі Колмогорова, є перспективною моделлю для апроксимації багатовимірних функцій за допомогою одновимірних компонент. Завдяки своїм теоретичним перевагам, таким як здатність зменшувати розмірність задачі, мережі KAN мають потенціал стати ефективним інструментом у багатьох галузях, включаючи обробку сигналів, класифікацію даних та прогнозування. Вивчення їхньої продуктивності є актуальним завданням для вдосконалення алгоритмів машинного навчання Мета і завдання дослідження: підвищення ефективності роботи нейронної мережі Колмогорова-Арнольда шляхом аналізу її продуктивності та порівняння з багатошаровим персептроном (MLP). Завдання дослідження: Уперше виконано порівняльний аналіз продуктивності нейронної мережі Колмогорова-Арнольда (KAN) та багатошарового персептрона (MLP) на основі наборів даних, таких як Beans Dataset, Titanic Dataset та CIFAR-100. Розроблено новий підхід до оцінювання продуктивності, який враховує як метрики точності, так і обчислювальні витрати. Запропоновано методику оптимізації архітектури KAN для покращення результатів у задачах класифікації та регресії. У першому розділі детально розглянуто основи теореми Колмогорова-Арнольда (KAN), яка є фундаментом для побудови нейронної мережі цього типу. Викладено математичні основи теореми, що дозволяє звести багатовимірні функції до суми одновимірних функцій, та обговорено її застосування в 5 контексті машинного навчання. Зосереджено увагу на її теоретичних аспектах, перевагах і обмеженнях. У другому розділі описано підхід до оцінювання продуктивності нейронної мережі Колмогорова-Арнольда (KAN). Наведено методологію проведення експериментів, включаючи вибір наборів даних, метрики продуктивності, критерії порівняння з багатошаровими персептронами (MLP) та налаштування параметрів. Особливу увагу приділено способам оптимізації архітектури мережі KAN. Третій розділ присвячений практичній реалізації нейронних мереж KAN та MLP. Описано архітектури та алгоритми навчання, що застосовувалися у дослідженні. Реалізацію мереж виконано на обраних наборах даних, таких як Beans Dataset, Titanic Dataset, CIFAR-100 тощо, з використанням популярних фреймворків для машинного навчання. Наведено ключові особливості програмної реалізації. У четвертому розділі наведено результати дослідження, включаючи порівняння продуктивності мереж KAN та MLP за ключовими метриками. Висвітлено переваги та обмеження кожного підходу в контексті розв'язання задач з різних наборів даних. Узагальнено отримані висновки щодо продуктивності та доцільності використання нейронних мереж Колмогорова-Арнольда для вирішення задач машинного навчання. П?ятий розділ присвячений розрахунку економічної ефективності впровадження нейронної мережі Колмогорова-Арнольда (KAN) у задачах машинного навчання. Оцінено витрати на реалізацію та використання мережі KAN порівняно з традиційними моделями, такими як багатошаровий персептрон (MLP), у практичних застосуваннях. Проаналізовано переваги та обмеження моделі KAN в реальних умовах, включаючи її продуктивність, обчислювальну вартість та потенціал для інтеграції в сучасні системи аналізу даних. Висновки підсумовують результати виконаної роботи, підкреслюючи доцільність використання нейронної мережі Колмогорова-Арнольда для вирішення задач машинного навчання. Проаналізовано продуктивність мережі 6 KAN порівняно з багатошаровим персептроном (MLP), визначено її переваги у розв'язанні задач з обраних наборів даних, а також окреслено ключові аспекти, що підтверджують ефективність цього підходу. Об’єкт дослідження – продуктивність нейронної мережі Колмогорова-Арнольда в задачах машинного навчання. Предмет дослідження – методи реалізації та оцінки ефективності нейронних мереж Колмогорова-Арнольда у порівнянні з багатошаровим персептроном. Мета дослідження – розробка та оцінка ефективності нейронної мережі Колмогорова-Арнольда для вирішення задач класифікації та регресії в різних наборах даних. | |
dc.description.abstract | Relevance of the topic: In the modern conditions of the development of artificial intelligence and machine learning, the study of new neural architectural networks acquires special significance. The Kolmogorov-Arnold neural network (KAN), which is based on the Kolmogorov theory, is a promising model for approximating multidimensional functions using one-dimensional components. Due to their theoretical advantages, such as the ability to reduce the dimensionality of the problem, KAN networks have the potential to become an effective tool in many fields, including signal processing, data classification, and prediction. Studying their performance is an urgent task for improving machine learning algorithms The goal and task of the research: improving the efficiency of the Kolmogorov-Arnold neural network by analyzing its performance and comparing it with a multilayer perceptron (MLP). Research Objective: For the first time, a comparative analysis of the performance of Kolmogorov-Arnold Neural Network (KAN) and Multilayer Perceptron (MLP) is performed on datasets such as Beans Dataset, Titanic Dataset, and CIFAR-100. A new approach to performance evaluation has been developed that takes into account both accuracy metrics and computational costs. A technique for optimizing the KAN architecture is proposed to improve results in classification and regression tasks. The first chapter describes in detail the basis of the Kolmogorov-Arnold (KAN) theorem, which is the basis for building a neural network of this type. The mathematical foundations of the theorem, which allows reducing multidimensional functions to the sum of one-dimensional functions, are outlined, and its application in the context of machine learning is discussed. Attention is focused on its theoretical aspects, advantages and limitations. Another section describes an approach to evaluating the performance of a Kolmogorov-Arnold neural network (KAN). The methodology of conducting experiments, which includes the selection of a data set, performance metrics, criteria for comparison with multilayer perceptrons (MLP) and parameter settings, is given. Special attention is paid to ways of optimizing the KAN network architecture. 8 The third section is devoted to the practical implementation of KAN and MLP neural networks. Architectures and learning algorithms used in the study are described. The implementation of the network is done on selected datasets such as Beans Dataset, Titanic Dataset, CIFAR-100, etc., using popular machine learning frameworks. The key features of software implementation are given. The fourth section presents the results of the study, which includes a comparison of the KAN and MLP network performance on key metrics. The advantages and limitations of each approach in the context of solving tasks from different data sets are highlighted. The conclusions regarding the productivity and expediency of using Kolmogorov-Arnold neural networks for solving machine learning tasks are summarized. The fifth chapter is devoted to calculating the economic efficiency of implementing the Kolmogorov-Arnold neural network (KAN) in machine learning problems. The implementation and usage costs of the KAN network are evaluated in comparison to traditional models such as the multilayer perceptron (MLP) in practical applications. Advantages and limitations of the KAN model in real conditions are analyzed, including its performance, computational cost, and potential for integration into modern data analysis systems. The conclusions summarize the results of the performed work, emphasizing the expediency of using the Kolmogorov-Arnold neural network for solving machine learning problems. The performance of the KAN network implemented with a multilayer perceptron (MLP) is analyzed, its advantages in solving problems from selected data sets are determined, and key aspects confirming the effectiveness of this approach are outlined. The subject of the study is the performance of the Kolmogorov-Arnold neural network in machine learning tasks. The subject of the study is methods of implementing and evaluating the effectiveness of Kolmogorov-Arnold neural networks in comparison with a multilayer perceptron. 9 The purpose of the research is to develop and evaluate the effectiveness of the Kolmogorov-Arnold neural network for solving classification and regression tasks in various data sets. | |
dc.format.pages | 70 | |
dc.identifier.citation | Литвин Ю. А. Дослідження продуктивності нейронної мережі Колмогорова-Арнольда : кваліфікаційна робота на здобуття освітнього ступеня магістр за спеціальністю „8.122.00.07 — Комп'ютерні системи управління рухомими об'єктами (автомобільний транспорт)“ / Юрій Андрійович Литвин. — Львів, 2024. — 70 с. | |
dc.identifier.uri | https://ena.lpnu.ua/handle/ntb/62835 | |
dc.language.iso | uk | |
dc.publisher | Національний університет "Львівська політехніка" | |
dc.relation.references | Kolmogorov, A. N. (1957). "On the representation of continuous functions of several variables by superpositions of continuous functions of one variable and addition." | |
dc.relation.references | Arnold, V. I. (1983). "Geometrical Methods in the Theory of Ordinary Differential Equations." | |
dc.relation.references | Funahashi, K. (1989). "On the approximate realization of continuous mappings by neural networks." Neural Networks. | |
dc.relation.references | Cybenko, G. (1989). "Approximation by superpositions of a sigmoidal function." Mathematics of Control, Signals, and Systems. | |
dc.relation.references | Hornik, K., Stinchcombe, M., & White, H. (1989). "Multilayer feedforward networks are universal approximators." Neural Networks. | |
dc.relation.referencesen | Kolmogorov , AN (1957). " He the representation of continuous functions of several variables by superpositions of continuous functions of one variable and addition ." | |
dc.relation.referencesen | Arnold , VI (1983). " Geometrical Methods in the Theory of Ordinary Differential Equations ." | |
dc.relation.referencesen | Funahashi , K. (1989). " He the approximate realization of continuous mappings by neural networks ." Neural Networks . | |
dc.relation.referencesen | Cybenko , G. (1989). " Approximation by superpositions of a sigmoidal function ." Mathematics of Control , Signals , and Systems . | |
dc.relation.referencesen | Hornik , K., Stinchcombe , M., & White , H. (1989). " Multilayer feedforward networks are universal approximators .” Neural Networks . | |
dc.rights.holder | © Національний університет "Львівська політехніка", 2024 | |
dc.rights.holder | © Литвин, Юрій Андрійович, 2024 | |
dc.subject | 8.122.00.07 | |
dc.subject | – нейронна мережа Колмогорова-Арнольда(KAN) | |
dc.subject | багатошаровий персептрон(MLP) | |
dc.subject | класифікація | |
dc.subject | регресія | |
dc.subject | машинне навчання | |
dc.subject | ефективність | |
dc.subject | продуктивність | |
dc.subject | - Kolmogorov-Arnold neural network (KAN) | |
dc.subject | multilayer perceptron (MLP) | |
dc.subject | classification | |
dc.subject | regression | |
dc.subject | machine learning | |
dc.subject | efficiency | |
dc.subject | performance | |
dc.title | Дослідження продуктивності нейронної мережі Колмогорова-Арнольда | |
dc.title.alternative | Study of the productivity of the Kolmogorov-Arnold neural network | |
dc.type | Students_diploma |