Побудова оптимізованої багатошарової нейронної мережі в межах нелінійної моделі узагальненої похибки

dc.citation.epage60
dc.citation.issue9
dc.citation.journalTitleВісник Національного університету "Львівська політехніка". Інформаційні системи та мережі
dc.citation.spage53
dc.contributor.affiliationНаціональний університет “Львівська політехніка”
dc.contributor.affiliationДрогобицький державний педагогічний університет імені Івана Франка
dc.contributor.affiliationLviv Polytechnic National University
dc.contributor.affiliationDrohobych Ivan Franko State Pedagogical University
dc.contributor.authorПелещак, Роман
dc.contributor.authorЛитвин, Василь
dc.contributor.authorПелещак, Іван
dc.contributor.authorВисоцька, Вікторія
dc.contributor.authorЧерняк, Оксана
dc.contributor.authorPeleshchak, Roman
dc.contributor.authorLytvyn, Vasyl
dc.contributor.authorPeleshchak, Ivan
dc.contributor.authorVysotska, Victoria
dc.contributor.authorChernyak, Oksana
dc.coverage.placenameЛьвів
dc.coverage.placenameLviv
dc.date.accessioned2023-06-07T07:02:54Z
dc.date.available2023-06-07T07:02:54Z
dc.date.created2021-03-01
dc.date.issued2021-03-01
dc.description.abstractУ роботі запропоновано спосіб оптимізації структури багатошарової нейронної мережі на основі мінімізації нелінійної узагальненої похибки, яка ґрунтується на принципі мінімальної довжини опису. Відповідно до цього принципу, узагальнена похибка мережі під час роботи з новими даними визначається похибкою апроксимації даних нейронною мережею у нелінійному наближенні та похибкою опису моделі. З умови мінімуму узагальненої похибки мережі виведено вирази для обчислення оптимального розміру мережі (кількість синаптичних зв’язків та кількість нейронів у прихованих шарах). Побудовано графічні залежності узагальненої похибки мережі від кількості синаптичних зв’язків між нейронами за різних значень вхідних образів і фіксованої кількості навчальних прикладів та графічні залежності оптимальної кількості синаптичних зв’язків від кількості навчальних прикладів за різних значень вхідних образів. На основі співвідношень для оптимальної кількості синаптичних зв’язків між нейронами та оптимальної кількості нейронів у прихованих шарах оцінено ступінь складності навчання нейронної мережі.
dc.description.abstractIn this paper, we propose a method for optimizing the structure of a multilayer neural network based on minimizing nonlinear generalized error, which is based on the principle of minimum length of description. According to this principle, the generalized error is determined by the error in the description of the model and the error in the approximation of the data by the neural network in the nonlinear approximation. From the condition of minimizing the generalized network error, the expressions for calculating the optimal network size are given (the number of synaptic connections and the number of neurons in hidden layers). The graphic dependences of the generalized error of the network on the number of synaptic connections between the neurons with different values of input images and the fixed number of educational examples and the graphic dependences of the optimal number of synaptic connections from the number of educational examples with different values of the input images are constructed. The assessment of the degree of complexity of the training of the neural network is carried out on the basis of the ratio of the optimal number of synaptic connections between the neurons and the optimal number of neurons in the hidden layers.
dc.format.extent53-60
dc.format.pages8
dc.identifier.citationПобудова оптимізованої багатошарової нейронної мережі в межах нелінійної моделі узагальненої похибки / Роман Пелещак, Василь Литвин, Іван Пелещак, Вікторія Висоцька, Оксана Черняк // Вісник Національного університету "Львівська політехніка". Інформаційні системи та мережі. — Львів : Видавництво Львівської політехніки, 2021. — № 9. — С. 53–60.
dc.identifier.citationenConstruction of an optimized multilayer neural network within a nonlinear model of generalized error / Roman Peleshchak, Vasyl Lytvyn, Ivan Peleshchak, Victoria Vysotska, Oksana Chernyak // Visnyk Natsionalnoho universytetu "Lvivska politekhnika". Informatsiini systemy ta merezhi. — Lviv : Lviv Politechnic Publishing House, 2021. — No 9. — P. 53–60.
dc.identifier.doidoi.org/10.23939/sisn2021.09.053
dc.identifier.urihttps://ena.lpnu.ua/handle/ntb/59154
dc.language.isouk
dc.publisherВидавництво Львівської політехніки
dc.publisherLviv Politechnic Publishing House
dc.relation.ispartofВісник Національного університету "Львівська політехніка". Інформаційні системи та мережі, 9, 2021
dc.relation.references1. Lytvyn, V., Peleshchak, I., Peleshchak, R. (2017). The compression of the input images in neural network that using method diagonalization the matrices of synaptic weight connections. 2nd International Conference on Advanced Information and Communication Technologies (AICT), 66–70. Retrieved from: https://doi.org/10.1109/AIACT.2017.8020067
dc.relation.references2. Lytvyn, V., Peleshchak, I., Peleshchak, R. (2017). Increase the speed of detection and recognition of computer attacks in combined diagonalized neural networks. 4th International Scientific-Practical Conference “Problems of infocommunications. Science and Technolohy”, 152–155. Retrieved from: https://doi.org/10.1109/INFOCOMMST.2017.8246370.
dc.relation.references3. Yezhov, A. A., Shumsky, S. A. (1998). Neurocomputing and its applications in еconomics and business. Moscow, 222.
dc.relation.references4. Tariq, R. (2016). Make Your Own Neural Network. Kindle Edition, 222.
dc.relation.references5. Charu C. Aggarwal (2018). Neural Networks and Deep Learning: A Textbook. Springer, 520. Retrieved from: https://doi.org/10.1007/978-3-319-94463-0
dc.relation.references6. Tereykovsky, I. A. (2012). Optimization of the structure of the multilayer perceptron in systems of computer informaton protection. Information protection, 3, 36–40. Retrieved from: https://doi.org/10.18372/2410-7840.14.3357
dc.relation.references7. Landi, G., Zampini, A. (2018). Linear Algebra and Analytic Geometry for Physical Sciences. Springer, 345. Retrieved from: https://doi.org/10.1007/978-3-319-78361-1
dc.relation.references8. Heydarov, P. S. (2017). Neural network of direct distribution with the calculated parameters. Information technology, 7, 543–552.
dc.relation.references9. Hecht-Nielsen, R. (1987). Kolmogorov’s mapping neural network existence theorem. IEEE First Annual Int. Conf. on Neural Networks. San Diego, 3, 11–13.
dc.relation.references10. Kulchin, Y. N. (2015). Processing of signals of the distributed fiber-optic network for recognition of dynamic images using neural networks. Information technology, 4, 312–318.
dc.relation.referencesen1. Lytvyn, V., Peleshchak, I., Peleshchak, R. (2017). The compression of the input images in neural network that using method diagonalization the matrices of synaptic weight connections. 2nd International Conference on Advanced Information and Communication Technologies (AICT), 66–70. Retrieved from: https://doi.org/10.1109/AIACT.2017.8020067
dc.relation.referencesen2. Lytvyn, V., Peleshchak, I., Peleshchak, R. (2017). Increase the speed of detection and recognition of computer attacks in combined diagonalized neural networks. 4th International Scientific-Practical Conference "Problems of infocommunications. Science and Technolohy", 152–155. Retrieved from: https://doi.org/10.1109/INFOCOMMST.2017.8246370.
dc.relation.referencesen3. Yezhov, A. A., Shumsky, S. A. (1998). Neurocomputing and its applications in economics and business. Moscow, 222.
dc.relation.referencesen4. Tariq, R. (2016). Make Your Own Neural Network. Kindle Edition, 222.
dc.relation.referencesen5. Charu C. Aggarwal (2018). Neural Networks and Deep Learning: A Textbook. Springer, 520. Retrieved from: https://doi.org/10.1007/978-3-319-94463-0
dc.relation.referencesen6. Tereykovsky, I. A. (2012). Optimization of the structure of the multilayer perceptron in systems of computer informaton protection. Information protection, 3, 36–40. Retrieved from: https://doi.org/10.18372/2410-7840.14.3357
dc.relation.referencesen7. Landi, G., Zampini, A. (2018). Linear Algebra and Analytic Geometry for Physical Sciences. Springer, 345. Retrieved from: https://doi.org/10.1007/978-3-319-78361-1
dc.relation.referencesen8. Heydarov, P. S. (2017). Neural network of direct distribution with the calculated parameters. Information technology, 7, 543–552.
dc.relation.referencesen9. Hecht-Nielsen, R. (1987). Kolmogorov’s mapping neural network existence theorem. IEEE First Annual Int. Conf. on Neural Networks. San Diego, 3, 11–13.
dc.relation.referencesen10. Kulchin, Y. N. (2015). Processing of signals of the distributed fiber-optic network for recognition of dynamic images using neural networks. Information technology, 4, 312–318.
dc.relation.urihttps://doi.org/10.1109/AIACT.2017.8020067
dc.relation.urihttps://doi.org/10.1109/INFOCOMMST.2017.8246370
dc.relation.urihttps://doi.org/10.1007/978-3-319-94463-0
dc.relation.urihttps://doi.org/10.18372/2410-7840.14.3357
dc.relation.urihttps://doi.org/10.1007/978-3-319-78361-1
dc.rights.holder© Національний університет “Львівська політехніка”, 2021
dc.rights.holder© Пелещак Р., Литвин В., Пелещак І., Висоцька В., Черняк О., 2021
dc.subjectнейронна мережа
dc.subjectузагальнена похибка
dc.subjectоптимізація розміру
dc.subjectneural network
dc.subjectgeneralized error
dc.subjectsize optimization
dc.subject.udc004.032.26
dc.titleПобудова оптимізованої багатошарової нейронної мережі в межах нелінійної моделі узагальненої похибки
dc.title.alternativeConstruction of an optimized multilayer neural network within a nonlinear model of generalized error
dc.typeArticle

Files

Original bundle

Now showing 1 - 2 of 2
Thumbnail Image
Name:
2021n9_Peleshchak_R-Construction_of_an_optimized_53-60.pdf
Size:
1.44 MB
Format:
Adobe Portable Document Format
Thumbnail Image
Name:
2021n9_Peleshchak_R-Construction_of_an_optimized_53-60__COVER.png
Size:
351.18 KB
Format:
Portable Network Graphics

License bundle

Now showing 1 - 1 of 1
No Thumbnail Available
Name:
license.txt
Size:
1.95 KB
Format:
Plain Text
Description: