Методи та моделі машинного навчання в хімії та матеріалознавстві на прикладі експерименту з дифузією розчиненої речовини
dc.citation.epage | 78 | |
dc.citation.issue | 1 | |
dc.citation.journalTitle | Комп’ютерні системи проектування. Теорія і практика | |
dc.citation.spage | 68 | |
dc.contributor.affiliation | Національний університет “Львівська політехніка” | |
dc.contributor.affiliation | Lviv Polytechnic National University | |
dc.contributor.author | Веретюк, Олексій | |
dc.contributor.author | Андрущак, Назарій | |
dc.contributor.author | Veretiuk, Oleksii | |
dc.contributor.author | Andrushchak, Nazariy | |
dc.coverage.placename | Львів | |
dc.coverage.placename | Lviv | |
dc.date.accessioned | 2025-03-11T09:52:39Z | |
dc.date.created | 2024-02-27 | |
dc.date.issued | 2024-02-27 | |
dc.description.abstract | Машинне навчання є логічним продовженням автоматизованих процесів за допомогою обчислювальних систем. В той час як велика кількість різних сфер діяльності людини булипокращені створенням програмного забезпечення з використанням алгоритмічнихпідходів, велика кількість інших задач залишається не вирішеною, адже створення алгоритмів для них є майже неможливим. До таких сфер можна віднести хімічні та фізичні дослідження. Емпіричний підхід все ще є одним з найважливіших підходів у досягненні результатів, адже для багатьох досліджень все ще не існує чіткого математичного апарату. Машинне навчання є тим рішенням, яке дозволяє заощадити ресурси й пришвидшити процес дослідження. Проведення експериментів це завжди збір даних про результати. Алгоритми машинного навчання дозволяють використати цю інформацію для побудови моделі здатної передбачати результати експериментів або властивості нових сполук. В межах цієї статті, на прикладі даних отриманих з експериментів з дифузією розчиненою речовини, перевіряється ефективність низки алгоритмів, як стандартних так й ансамблевих алгоритмів, з обмеженоюкількістю вхідних даних. В результаті були отримані дані про ефективність запропонованих алгоритмів, які буливизначені за допомогою формул середньоквадратичної похибки, а також середньої абсолютної відсоткової похибки. Наведені приклад й опис процесу побудови моделей машинного навчання різного типу. | |
dc.description.abstract | Machine learning is a logical extension of automation using computer systems. While a large number of different areas of human activity have been improved by algorithmic software, a large number of other problems remain unsolved because creating an algorithm for them is almost impossible. One of these fields is science. The empirical approach is still main approach in achieving results, because for many studies there is still no clear mathematical apparatus. Machine learning is the solution that allows to save resources and speed up the research process. Conducting experiments always leads to collecting data about the results. Machine learning algorithms allow to use this information to build a model capable of predicting the results of experiments or the properties of new compounds. Within the scope of this article, the effectiveness of different algorithms, both standard and ensemble algorithms, is tested on the data obtained from experiments with solute diffusion. As a result, the effectiveness data of various algorithms were calculated using the formulas of root mean square error, as well as mean absolute percentage error. An example and description of the process of building different types of machine learning models are given. | |
dc.format.extent | 68-78 | |
dc.format.pages | 11 | |
dc.identifier.citation | Веретюк О. Методи та моделі машинного навчання в хімії та матеріалознавстві на прикладі експерименту з дифузією розчиненої речовини / Олексій Веретюк, Назарій Андрущак // Комп’ютерні системи проектування. Теорія і практика. — Львів : Видавництво Львівської політехніки, 2024. — Том 6. — № 1. — С. 68–78. | |
dc.identifier.citationen | Veretiuk O. Methods and models of machine learning in chemistry and material science using solute diffusion experiment / Oleksii Veretiuk, Nazariy Andrushchak // Computer Systems of Design. Theory and Practice. — Lviv : Lviv Politechnic Publishing House, 2024. — Vol 6. — No 1. — P. 68–78. | |
dc.identifier.doi | doi.org/10.23939/cds2024.01.068 | |
dc.identifier.uri | https://ena.lpnu.ua/handle/ntb/64122 | |
dc.language.iso | uk | |
dc.publisher | Видавництво Львівської політехніки | |
dc.publisher | Lviv Politechnic Publishing House | |
dc.relation.ispartof | Комп’ютерні системи проектування. Теорія і практика, 1 (6), 2024 | |
dc.relation.ispartof | Computer Systems of Design. Theory and Practice, 1 (6), 2024 | |
dc.relation.references | [1] K. T. Butler, D. W. Davies, H. Cartwright, O. Isayev, and A. Walsh, "Machine learning for molecular and materials science," Nature, vol. 559, no. 7715, pp. 547-555, 2018. [Online]. Available: https://doi.org/10.1038/s41586-018-0337-2 | |
dc.relation.references | [2] V. Kulyk et al., "Prediction of hardness, flexural strength, and fracture toughness of ZrO2 based ceramics using ensemble learning algorithms," Acta Metallurgica Slovaca, 2023. [Online]. Available: https://doi.org/10.36547/ams.29.2.1819 | |
dc.relation.references | [3] A. Trostianchyn et al., "Boosting – based model for solving Sm-Coalloy’s maximum energy product prediction task," Archives of Materials Science and Engineering, 2022. [Online]. Available: https://doi.org/10.5604/01.3001.0016.1191 | |
dc.relation.references | [4] J. G. Wickerand R. I. Cooper, "Will it crystallise? Predicting crystallinity of molecular materials," Cryst Eng Comm, vol. 17, no. 9, pp. 1927-1934, 2015. [Online]. Available: https://doi.org/10.1039/C4CE01912A | |
dc.relation.references | [5] J. Kirmanetal., "Machine-learning-accelerated perovskite crystallization," Matter, vol. 2, no. 4, pp. 938-947, 2020. [Online]. Available: https://doi.org/10.1016/j.matt.2020.02.012 | |
dc.relation.references | [6] R. A. Friesner, "Abinitio quantum chemistry: Methodology and applications," Proceedings of the National Academy of Sciences, vol. 102, no. 19, pp. 6648-6653, 2005. | |
dc.relation.references | [7] D. Mauludand A. M. Abdulazeez, "A review on linear regression comprehensive in machine learning," Journal of Applied Science and Technology Trends, vol. 1, no. 4, pp. 140-147, 2020. [Online]. Available: https://doi.org/10.38094/jastt1457 | |
dc.relation.references | [8] K. Taunk et al., "A brief review of nearest neighbor algorithm for learning and classification," in 2019 international conference oni ntelligent computing and control systems (ICCS), May 2019, pp. 1255-1260. IEEE. [Online]. Available: https://doi.org/10.1109/ICCS45141.2019.9065747 | |
dc.relation.references | [9] B. Kumar, O. P. Vyas, and R. Vyas, "A comprehensive review on the variants of support vector machines," Modern Physics Letters B, vol. 33, no. 25, 1950303, 2019. [Online]. Available: https://doi.org/10.1142/S0217984919503032 | |
dc.relation.references | [10] B. Charbutyand A. Abdulazeez, "Classification based on decision treeal gorithm for machine learning," Journal of Applied Science and Technology Trends, vol. 2, no. 01, pp. 20-28, 2021. [Online]. Available: https://doi.org/10.38094/jastt20165 | |
dc.relation.references | [11] S. Smys, J. I. Z. Chen, and S. Shakya, "Survey on neural network architectures with deep learning," Journal of Soft Computing Paradigm (JSCP), vol. 2, no. 03, pp. 186-194, 2020. [Online]. Available: https://doi.org/10.36548/jscp.2020.3.007 | |
dc.relation.references | [12] D. Morgan, "Machine Learning Materials Datasets," [Online]. Available: http://doi.org/10.6084/m9.figshare.7017254.v5 | |
dc.relation.references | [13] T. O. Hodson, "Root means quare error (RMSE) or mean absolute error (MAE): When touse the mornot," Geoscientific Model Development Discussions, 2022, pp. 1-10. [Online]. Available: https://doi.org/10.5194/gmd-15-5481-2022 | |
dc.relation.references | [14] T. G. Dietterich, "Ensemble learning," The handbook of brain the oryand neural networks, vol. 2, no. 1, pp. 110-125, 2002. | |
dc.relation.references | [15] T. G. Dietterich, "An experimental comparison of three methods for constructing ensembles of decision trees: Bagging, boosting, and randomization," Machine learning, vol. 40, pp. 139-157, 2000. [Online]. Available: https://doi.org/10.1023/A:1007607513941 | |
dc.relation.references | [16] D. D. Margineantuand T. G. Dietterich, "Pruning adaptive boosting," in ICML, July 1997, vol. 97, pp. 211-218. | |
dc.relation.references | [17] L. Guelman, "Gradient boosting trees for auto insurance losscost modeling and prediction," Expert Systems with Applications, vol. 39, no. 3, pp. 3659-3667, 2012. [Online]. Available: https://doi.org/10.1016/j.eswa.2011.09.058 | |
dc.relation.references | [18] A. Parmar, R. Katariya, and V. Patel, "A review on random forest: An ensemble classifier," in International conference on intelligent data communication technologies and internet of things (ICICI) 2018, 2019, pp. 758-763. [Online]. Available: https://doi.org/10.1007/978-3-030-03146-6_86 | |
dc.relation.references | [19] A. DeMyttenaere, B. Golden, B. LeGrand, and F. Rossi, "Mean absolute percentage error for regression models," Neuro computing, vol. 192, pp. 38-48, 2016. [Online]. Available: https://doi.org/10.1016/j.neucom.2015.12.114 | |
dc.relation.referencesen | [1] K. T. Butler, D. W. Davies, H. Cartwright, O. Isayev, and A. Walsh, "Machine learning for molecular and materials science," Nature, vol. 559, no. 7715, pp. 547-555, 2018. [Online]. Available: https://doi.org/10.1038/s41586-018-0337-2 | |
dc.relation.referencesen | [2] V. Kulyk et al., "Prediction of hardness, flexural strength, and fracture toughness of ZrO2 based ceramics using ensemble learning algorithms," Acta Metallurgica Slovaca, 2023. [Online]. Available: https://doi.org/10.36547/ams.29.2.1819 | |
dc.relation.referencesen | [3] A. Trostianchyn et al., "Boosting – based model for solving Sm-Coalloy’s maximum energy product prediction task," Archives of Materials Science and Engineering, 2022. [Online]. Available: https://doi.org/10.5604/01.3001.0016.1191 | |
dc.relation.referencesen | [4] J. G. Wickerand R. I. Cooper, "Will it crystallise? Predicting crystallinity of molecular materials," Cryst Eng Comm, vol. 17, no. 9, pp. 1927-1934, 2015. [Online]. Available: https://doi.org/10.1039/P.4CE01912A | |
dc.relation.referencesen | [5] J. Kirmanetal., "Machine-learning-accelerated perovskite crystallization," Matter, vol. 2, no. 4, pp. 938-947, 2020. [Online]. Available: https://doi.org/10.1016/j.matt.2020.02.012 | |
dc.relation.referencesen | [6] R. A. Friesner, "Abinitio quantum chemistry: Methodology and applications," Proceedings of the National Academy of Sciences, vol. 102, no. 19, pp. 6648-6653, 2005. | |
dc.relation.referencesen | [7] D. Mauludand A. M. Abdulazeez, "A review on linear regression comprehensive in machine learning," Journal of Applied Science and Technology Trends, vol. 1, no. 4, pp. 140-147, 2020. [Online]. Available: https://doi.org/10.38094/jastt1457 | |
dc.relation.referencesen | [8] K. Taunk et al., "A brief review of nearest neighbor algorithm for learning and classification," in 2019 international conference oni ntelligent computing and control systems (ICCS), May 2019, pp. 1255-1260. IEEE. [Online]. Available: https://doi.org/10.1109/ICCS45141.2019.9065747 | |
dc.relation.referencesen | [9] B. Kumar, O. P. Vyas, and R. Vyas, "A comprehensive review on the variants of support vector machines," Modern Physics Letters B, vol. 33, no. 25, 1950303, 2019. [Online]. Available: https://doi.org/10.1142/S0217984919503032 | |
dc.relation.referencesen | [10] B. Charbutyand A. Abdulazeez, "Classification based on decision treeal gorithm for machine learning," Journal of Applied Science and Technology Trends, vol. 2, no. 01, pp. 20-28, 2021. [Online]. Available: https://doi.org/10.38094/jastt20165 | |
dc.relation.referencesen | [11] S. Smys, J. I. Z. Chen, and S. Shakya, "Survey on neural network architectures with deep learning," Journal of Soft Computing Paradigm (JSCP), vol. 2, no. 03, pp. 186-194, 2020. [Online]. Available: https://doi.org/10.36548/jscp.2020.3.007 | |
dc.relation.referencesen | [12] D. Morgan, "Machine Learning Materials Datasets," [Online]. Available: http://doi.org/10.6084/m9.figshare.7017254.v5 | |
dc.relation.referencesen | [13] T. O. Hodson, "Root means quare error (RMSE) or mean absolute error (MAE): When touse the mornot," Geoscientific Model Development Discussions, 2022, pp. 1-10. [Online]. Available: https://doi.org/10.5194/gmd-15-5481-2022 | |
dc.relation.referencesen | [14] T. G. Dietterich, "Ensemble learning," The handbook of brain the oryand neural networks, vol. 2, no. 1, pp. 110-125, 2002. | |
dc.relation.referencesen | [15] T. G. Dietterich, "An experimental comparison of three methods for constructing ensembles of decision trees: Bagging, boosting, and randomization," Machine learning, vol. 40, pp. 139-157, 2000. [Online]. Available: https://doi.org/10.1023/A:1007607513941 | |
dc.relation.referencesen | [16] D. D. Margineantuand T. G. Dietterich, "Pruning adaptive boosting," in ICML, July 1997, vol. 97, pp. 211-218. | |
dc.relation.referencesen | [17] L. Guelman, "Gradient boosting trees for auto insurance losscost modeling and prediction," Expert Systems with Applications, vol. 39, no. 3, pp. 3659-3667, 2012. [Online]. Available: https://doi.org/10.1016/j.eswa.2011.09.058 | |
dc.relation.referencesen | [18] A. Parmar, R. Katariya, and V. Patel, "A review on random forest: An ensemble classifier," in International conference on intelligent data communication technologies and internet of things (ICICI) 2018, 2019, pp. 758-763. [Online]. Available: https://doi.org/10.1007/978-3-030-03146-6_86 | |
dc.relation.referencesen | [19] A. DeMyttenaere, B. Golden, B. LeGrand, and F. Rossi, "Mean absolute percentage error for regression models," Neuro computing, vol. 192, pp. 38-48, 2016. [Online]. Available: https://doi.org/10.1016/j.neucom.2015.12.114 | |
dc.relation.uri | https://doi.org/10.1038/s41586-018-0337-2 | |
dc.relation.uri | https://doi.org/10.36547/ams.29.2.1819 | |
dc.relation.uri | https://doi.org/10.5604/01.3001.0016.1191 | |
dc.relation.uri | https://doi.org/10.1039/C4CE01912A | |
dc.relation.uri | https://doi.org/10.1016/j.matt.2020.02.012 | |
dc.relation.uri | https://doi.org/10.38094/jastt1457 | |
dc.relation.uri | https://doi.org/10.1109/ICCS45141.2019.9065747 | |
dc.relation.uri | https://doi.org/10.1142/S0217984919503032 | |
dc.relation.uri | https://doi.org/10.38094/jastt20165 | |
dc.relation.uri | https://doi.org/10.36548/jscp.2020.3.007 | |
dc.relation.uri | http://doi.org/10.6084/m9.figshare.7017254.v5 | |
dc.relation.uri | https://doi.org/10.5194/gmd-15-5481-2022 | |
dc.relation.uri | https://doi.org/10.1023/A:1007607513941 | |
dc.relation.uri | https://doi.org/10.1016/j.eswa.2011.09.058 | |
dc.relation.uri | https://doi.org/10.1007/978-3-030-03146-6_86 | |
dc.relation.uri | https://doi.org/10.1016/j.neucom.2015.12.114 | |
dc.rights.holder | © Національний університет “Львівська політехніка”, 2024 | |
dc.rights.holder | © Веретюк О., Назарій А., 2024 | |
dc.subject | машинне навчання | |
dc.subject | scikit-learn | |
dc.subject | хімія | |
dc.subject | матеріалознавство | |
dc.subject | обмежена кількість тренувальних даних | |
dc.subject | дифузія розчиненої речовини | |
dc.subject | machine learning | |
dc.subject | scikit-learn | |
dc.subject | chemistry | |
dc.subject | material science | |
dc.subject | limited amount of data | |
dc.subject | solute diffusion | |
dc.title | Методи та моделі машинного навчання в хімії та матеріалознавстві на прикладі експерименту з дифузією розчиненої речовини | |
dc.title.alternative | Methods and models of machine learning in chemistry and material science using solute diffusion experiment | |
dc.type | Article |
Files
License bundle
1 - 1 of 1