Методи та моделі машинного навчання в хімії та матеріалознавстві на прикладі експерименту з дифузією розчиненої речовини

dc.citation.epage78
dc.citation.issue1
dc.citation.journalTitleКомп’ютерні системи проектування. Теорія і практика
dc.citation.spage68
dc.contributor.affiliationНаціональний університет “Львівська політехніка”
dc.contributor.affiliationLviv Polytechnic National University
dc.contributor.authorВеретюк, Олексій
dc.contributor.authorАндрущак, Назарій
dc.contributor.authorVeretiuk, Oleksii
dc.contributor.authorAndrushchak, Nazariy
dc.coverage.placenameЛьвів
dc.coverage.placenameLviv
dc.date.accessioned2025-03-11T09:52:39Z
dc.date.created2024-02-27
dc.date.issued2024-02-27
dc.description.abstractМашинне навчання є логічним продовженням автоматизованих процесів за допомогою обчислювальних систем. В той час як велика кількість різних сфер діяльності людини булипокращені створенням програмного забезпечення з використанням алгоритмічнихпідходів, велика кількість інших задач залишається не вирішеною, адже створення алгоритмів для них є майже неможливим. До таких сфер можна віднести хімічні та фізичні дослідження. Емпіричний підхід все ще є одним з найважливіших підходів у досягненні результатів, адже для багатьох досліджень все ще не існує чіткого математичного апарату. Машинне навчання є тим рішенням, яке дозволяє заощадити ресурси й пришвидшити процес дослідження. Проведення експериментів це завжди збір даних про результати. Алгоритми машинного навчання дозволяють використати цю інформацію для побудови моделі здатної передбачати результати експериментів або властивості нових сполук. В межах цієї статті, на прикладі даних отриманих з експериментів з дифузією розчиненою речовини, перевіряється ефективність низки алгоритмів, як стандартних так й ансамблевих алгоритмів, з обмеженоюкількістю вхідних даних. В результаті були отримані дані про ефективність запропонованих алгоритмів, які буливизначені за допомогою формул середньоквадратичної похибки, а також середньої абсолютної відсоткової похибки. Наведені приклад й опис процесу побудови моделей машинного навчання різного типу.
dc.description.abstractMachine learning is a logical extension of automation using computer systems. While a large number of different areas of human activity have been improved by algorithmic software, a large number of other problems remain unsolved because creating an algorithm for them is almost impossible. One of these fields is science. The empirical approach is still main approach in achieving results, because for many studies there is still no clear mathematical apparatus. Machine learning is the solution that allows to save resources and speed up the research process. Conducting experiments always leads to collecting data about the results. Machine learning algorithms allow to use this information to build a model capable of predicting the results of experiments or the properties of new compounds. Within the scope of this article, the effectiveness of different algorithms, both standard and ensemble algorithms, is tested on the data obtained from experiments with solute diffusion. As a result, the effectiveness data of various algorithms were calculated using the formulas of root mean square error, as well as mean absolute percentage error. An example and description of the process of building different types of machine learning models are given.
dc.format.extent68-78
dc.format.pages11
dc.identifier.citationВеретюк О. Методи та моделі машинного навчання в хімії та матеріалознавстві на прикладі експерименту з дифузією розчиненої речовини / Олексій Веретюк, Назарій Андрущак // Комп’ютерні системи проектування. Теорія і практика. — Львів : Видавництво Львівської політехніки, 2024. — Том 6. — № 1. — С. 68–78.
dc.identifier.citationenVeretiuk O. Methods and models of machine learning in chemistry and material science using solute diffusion experiment / Oleksii Veretiuk, Nazariy Andrushchak // Computer Systems of Design. Theory and Practice. — Lviv : Lviv Politechnic Publishing House, 2024. — Vol 6. — No 1. — P. 68–78.
dc.identifier.doidoi.org/10.23939/cds2024.01.068
dc.identifier.urihttps://ena.lpnu.ua/handle/ntb/64122
dc.language.isouk
dc.publisherВидавництво Львівської політехніки
dc.publisherLviv Politechnic Publishing House
dc.relation.ispartofКомп’ютерні системи проектування. Теорія і практика, 1 (6), 2024
dc.relation.ispartofComputer Systems of Design. Theory and Practice, 1 (6), 2024
dc.relation.references[1] K. T. Butler, D. W. Davies, H. Cartwright, O. Isayev, and A. Walsh, "Machine learning for molecular and materials science," Nature, vol. 559, no. 7715, pp. 547-555, 2018. [Online]. Available: https://doi.org/10.1038/s41586-018-0337-2
dc.relation.references[2] V. Kulyk et al., "Prediction of hardness, flexural strength, and fracture toughness of ZrO2 based ceramics using ensemble learning algorithms," Acta Metallurgica Slovaca, 2023. [Online]. Available: https://doi.org/10.36547/ams.29.2.1819
dc.relation.references[3] A. Trostianchyn et al., "Boosting – based model for solving Sm-Coalloy’s maximum energy product prediction task," Archives of Materials Science and Engineering, 2022. [Online]. Available: https://doi.org/10.5604/01.3001.0016.1191
dc.relation.references[4] J. G. Wickerand R. I. Cooper, "Will it crystallise? Predicting crystallinity of molecular materials," Cryst Eng Comm, vol. 17, no. 9, pp. 1927-1934, 2015. [Online]. Available: https://doi.org/10.1039/C4CE01912A
dc.relation.references[5] J. Kirmanetal., "Machine-learning-accelerated perovskite crystallization," Matter, vol. 2, no. 4, pp. 938-947, 2020. [Online]. Available: https://doi.org/10.1016/j.matt.2020.02.012
dc.relation.references[6] R. A. Friesner, "Abinitio quantum chemistry: Methodology and applications," Proceedings of the National Academy of Sciences, vol. 102, no. 19, pp. 6648-6653, 2005.
dc.relation.references[7] D. Mauludand A. M. Abdulazeez, "A review on linear regression comprehensive in machine learning," Journal of Applied Science and Technology Trends, vol. 1, no. 4, pp. 140-147, 2020. [Online]. Available: https://doi.org/10.38094/jastt1457
dc.relation.references[8] K. Taunk et al., "A brief review of nearest neighbor algorithm for learning and classification," in 2019 international conference oni ntelligent computing and control systems (ICCS), May 2019, pp. 1255-1260. IEEE. [Online]. Available: https://doi.org/10.1109/ICCS45141.2019.9065747
dc.relation.references[9] B. Kumar, O. P. Vyas, and R. Vyas, "A comprehensive review on the variants of support vector machines," Modern Physics Letters B, vol. 33, no. 25, 1950303, 2019. [Online]. Available: https://doi.org/10.1142/S0217984919503032
dc.relation.references[10] B. Charbutyand A. Abdulazeez, "Classification based on decision treeal gorithm for machine learning," Journal of Applied Science and Technology Trends, vol. 2, no. 01, pp. 20-28, 2021. [Online]. Available: https://doi.org/10.38094/jastt20165
dc.relation.references[11] S. Smys, J. I. Z. Chen, and S. Shakya, "Survey on neural network architectures with deep learning," Journal of Soft Computing Paradigm (JSCP), vol. 2, no. 03, pp. 186-194, 2020. [Online]. Available: https://doi.org/10.36548/jscp.2020.3.007
dc.relation.references[12] D. Morgan, "Machine Learning Materials Datasets," [Online]. Available: http://doi.org/10.6084/m9.figshare.7017254.v5
dc.relation.references[13] T. O. Hodson, "Root means quare error (RMSE) or mean absolute error (MAE): When touse the mornot," Geoscientific Model Development Discussions, 2022, pp. 1-10. [Online]. Available: https://doi.org/10.5194/gmd-15-5481-2022
dc.relation.references[14] T. G. Dietterich, "Ensemble learning," The handbook of brain the oryand neural networks, vol. 2, no. 1, pp. 110-125, 2002.
dc.relation.references[15] T. G. Dietterich, "An experimental comparison of three methods for constructing ensembles of decision trees: Bagging, boosting, and randomization," Machine learning, vol. 40, pp. 139-157, 2000. [Online]. Available: https://doi.org/10.1023/A:1007607513941
dc.relation.references[16] D. D. Margineantuand T. G. Dietterich, "Pruning adaptive boosting," in ICML, July 1997, vol. 97, pp. 211-218.
dc.relation.references[17] L. Guelman, "Gradient boosting trees for auto insurance losscost modeling and prediction," Expert Systems with Applications, vol. 39, no. 3, pp. 3659-3667, 2012. [Online]. Available: https://doi.org/10.1016/j.eswa.2011.09.058
dc.relation.references[18] A. Parmar, R. Katariya, and V. Patel, "A review on random forest: An ensemble classifier," in International conference on intelligent data communication technologies and internet of things (ICICI) 2018, 2019, pp. 758-763. [Online]. Available: https://doi.org/10.1007/978-3-030-03146-6_86
dc.relation.references[19] A. DeMyttenaere, B. Golden, B. LeGrand, and F. Rossi, "Mean absolute percentage error for regression models," Neuro computing, vol. 192, pp. 38-48, 2016. [Online]. Available: https://doi.org/10.1016/j.neucom.2015.12.114
dc.relation.referencesen[1] K. T. Butler, D. W. Davies, H. Cartwright, O. Isayev, and A. Walsh, "Machine learning for molecular and materials science," Nature, vol. 559, no. 7715, pp. 547-555, 2018. [Online]. Available: https://doi.org/10.1038/s41586-018-0337-2
dc.relation.referencesen[2] V. Kulyk et al., "Prediction of hardness, flexural strength, and fracture toughness of ZrO2 based ceramics using ensemble learning algorithms," Acta Metallurgica Slovaca, 2023. [Online]. Available: https://doi.org/10.36547/ams.29.2.1819
dc.relation.referencesen[3] A. Trostianchyn et al., "Boosting – based model for solving Sm-Coalloy’s maximum energy product prediction task," Archives of Materials Science and Engineering, 2022. [Online]. Available: https://doi.org/10.5604/01.3001.0016.1191
dc.relation.referencesen[4] J. G. Wickerand R. I. Cooper, "Will it crystallise? Predicting crystallinity of molecular materials," Cryst Eng Comm, vol. 17, no. 9, pp. 1927-1934, 2015. [Online]. Available: https://doi.org/10.1039/P.4CE01912A
dc.relation.referencesen[5] J. Kirmanetal., "Machine-learning-accelerated perovskite crystallization," Matter, vol. 2, no. 4, pp. 938-947, 2020. [Online]. Available: https://doi.org/10.1016/j.matt.2020.02.012
dc.relation.referencesen[6] R. A. Friesner, "Abinitio quantum chemistry: Methodology and applications," Proceedings of the National Academy of Sciences, vol. 102, no. 19, pp. 6648-6653, 2005.
dc.relation.referencesen[7] D. Mauludand A. M. Abdulazeez, "A review on linear regression comprehensive in machine learning," Journal of Applied Science and Technology Trends, vol. 1, no. 4, pp. 140-147, 2020. [Online]. Available: https://doi.org/10.38094/jastt1457
dc.relation.referencesen[8] K. Taunk et al., "A brief review of nearest neighbor algorithm for learning and classification," in 2019 international conference oni ntelligent computing and control systems (ICCS), May 2019, pp. 1255-1260. IEEE. [Online]. Available: https://doi.org/10.1109/ICCS45141.2019.9065747
dc.relation.referencesen[9] B. Kumar, O. P. Vyas, and R. Vyas, "A comprehensive review on the variants of support vector machines," Modern Physics Letters B, vol. 33, no. 25, 1950303, 2019. [Online]. Available: https://doi.org/10.1142/S0217984919503032
dc.relation.referencesen[10] B. Charbutyand A. Abdulazeez, "Classification based on decision treeal gorithm for machine learning," Journal of Applied Science and Technology Trends, vol. 2, no. 01, pp. 20-28, 2021. [Online]. Available: https://doi.org/10.38094/jastt20165
dc.relation.referencesen[11] S. Smys, J. I. Z. Chen, and S. Shakya, "Survey on neural network architectures with deep learning," Journal of Soft Computing Paradigm (JSCP), vol. 2, no. 03, pp. 186-194, 2020. [Online]. Available: https://doi.org/10.36548/jscp.2020.3.007
dc.relation.referencesen[12] D. Morgan, "Machine Learning Materials Datasets," [Online]. Available: http://doi.org/10.6084/m9.figshare.7017254.v5
dc.relation.referencesen[13] T. O. Hodson, "Root means quare error (RMSE) or mean absolute error (MAE): When touse the mornot," Geoscientific Model Development Discussions, 2022, pp. 1-10. [Online]. Available: https://doi.org/10.5194/gmd-15-5481-2022
dc.relation.referencesen[14] T. G. Dietterich, "Ensemble learning," The handbook of brain the oryand neural networks, vol. 2, no. 1, pp. 110-125, 2002.
dc.relation.referencesen[15] T. G. Dietterich, "An experimental comparison of three methods for constructing ensembles of decision trees: Bagging, boosting, and randomization," Machine learning, vol. 40, pp. 139-157, 2000. [Online]. Available: https://doi.org/10.1023/A:1007607513941
dc.relation.referencesen[16] D. D. Margineantuand T. G. Dietterich, "Pruning adaptive boosting," in ICML, July 1997, vol. 97, pp. 211-218.
dc.relation.referencesen[17] L. Guelman, "Gradient boosting trees for auto insurance losscost modeling and prediction," Expert Systems with Applications, vol. 39, no. 3, pp. 3659-3667, 2012. [Online]. Available: https://doi.org/10.1016/j.eswa.2011.09.058
dc.relation.referencesen[18] A. Parmar, R. Katariya, and V. Patel, "A review on random forest: An ensemble classifier," in International conference on intelligent data communication technologies and internet of things (ICICI) 2018, 2019, pp. 758-763. [Online]. Available: https://doi.org/10.1007/978-3-030-03146-6_86
dc.relation.referencesen[19] A. DeMyttenaere, B. Golden, B. LeGrand, and F. Rossi, "Mean absolute percentage error for regression models," Neuro computing, vol. 192, pp. 38-48, 2016. [Online]. Available: https://doi.org/10.1016/j.neucom.2015.12.114
dc.relation.urihttps://doi.org/10.1038/s41586-018-0337-2
dc.relation.urihttps://doi.org/10.36547/ams.29.2.1819
dc.relation.urihttps://doi.org/10.5604/01.3001.0016.1191
dc.relation.urihttps://doi.org/10.1039/C4CE01912A
dc.relation.urihttps://doi.org/10.1016/j.matt.2020.02.012
dc.relation.urihttps://doi.org/10.38094/jastt1457
dc.relation.urihttps://doi.org/10.1109/ICCS45141.2019.9065747
dc.relation.urihttps://doi.org/10.1142/S0217984919503032
dc.relation.urihttps://doi.org/10.38094/jastt20165
dc.relation.urihttps://doi.org/10.36548/jscp.2020.3.007
dc.relation.urihttp://doi.org/10.6084/m9.figshare.7017254.v5
dc.relation.urihttps://doi.org/10.5194/gmd-15-5481-2022
dc.relation.urihttps://doi.org/10.1023/A:1007607513941
dc.relation.urihttps://doi.org/10.1016/j.eswa.2011.09.058
dc.relation.urihttps://doi.org/10.1007/978-3-030-03146-6_86
dc.relation.urihttps://doi.org/10.1016/j.neucom.2015.12.114
dc.rights.holder© Національний університет “Львівська політехніка”, 2024
dc.rights.holder© Веретюк О., Назарій А., 2024
dc.subjectмашинне навчання
dc.subjectscikit-learn
dc.subjectхімія
dc.subjectматеріалознавство
dc.subjectобмежена кількість тренувальних даних
dc.subjectдифузія розчиненої речовини
dc.subjectmachine learning
dc.subjectscikit-learn
dc.subjectchemistry
dc.subjectmaterial science
dc.subjectlimited amount of data
dc.subjectsolute diffusion
dc.titleМетоди та моделі машинного навчання в хімії та матеріалознавстві на прикладі експерименту з дифузією розчиненої речовини
dc.title.alternativeMethods and models of machine learning in chemistry and material science using solute diffusion experiment
dc.typeArticle

Files

Original bundle

Now showing 1 - 2 of 2
Loading...
Thumbnail Image
Name:
2024v6n1_Veretiuk_O-Methods_and_models_of_machine_68-78.pdf
Size:
1.12 MB
Format:
Adobe Portable Document Format
Loading...
Thumbnail Image
Name:
2024v6n1_Veretiuk_O-Methods_and_models_of_machine_68-78__COVER.png
Size:
464.77 KB
Format:
Portable Network Graphics

License bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
license.txt
Size:
1.83 KB
Format:
Plain Text
Description: