Analysis of methods for training robotic manipulators to perform complex motion trajectories

dc.citation.epage61
dc.citation.issue1
dc.citation.journalTitleЕнергетика та системи керування
dc.citation.spage53
dc.contributor.affiliationНаціональний університет “Львівська політехніка”
dc.contributor.affiliationНаціональний університет “Львівська політехніка”
dc.contributor.affiliationLviv Polytechnic National University
dc.contributor.affiliationLviv Polytechnic National University
dc.contributor.authorСенчук, Юрій
dc.contributor.authorМатіко, Федір
dc.contributor.authorSenchuk, Yurii
dc.contributor.authorMatiko, Fedir
dc.coverage.placenameЛьвів
dc.coverage.placenameLviv
dc.date.accessioned2025-12-05T08:47:31Z
dc.date.created2025-05-10
dc.date.issued2025-05-10
dc.description.abstractРозглянуто актуальні підходи до навчання роботів-маніпуляторів, які застосовують для виконання склад- них завдань у динамічних та змінних умовах середовища. Проведено порівняльний аналіз сучасних методів, визначено їхні основні переваги, недоліки, а також окреслено типові сфери їхнього практичного застосування, зокрема, методи із залученням людини-інструктора, самонавчання та навчання з підкріпленням. Особливу увагу зосереджено питанню ефективності навчання, адаптивності роботів до нових умов, взаємодії з людиною та перенесення навичок з віртуального навчального середовища у реальне. На основі аналізу рекомендованим визначено імітаційне навчання, зокрема підхід навчання за демонстрацією, що дає змогу швидко та безпечно передавати навички від людини до робота без необхідності формалізації завдань. Крім того, акцентовано увагу на проблемах адаптації навчених моделей до реальних умов і взаємодії роботів із людиною. Визначено ключові виклики, що стоять перед сучасними системами навчання роботів, та сформульовано рекомендації щодо вибору оптимальних стратегій навчання залежно від типу завдань і доступних ресурсів.
dc.description.abstractThe article examines current approaches to training robotic manipulators for executing complex tasks in dynamic and changing environments. It provides a comparative analysis of modern training methods, highlighting their advantages and disadvantages. Additionally, the paper outlines the typical areas in which these methods are applied. Particular attention is given to approaches that involve human instructors, self-learning, and reinforcement learning. Special emphasis is placed on training efficiency, robot adaptability to new conditions, human-robot interaction, and the transfer of skills from virtual training environments to the real world. Based on the analysis, the authors recommend imitation learning – specifically, the learning from demonstration approach – as it enables the rapid and safe transfer of skills from humans to robots without the need for task formalization. The article also highlights the challenges of adapting trained models to real-world conditions and ensuring effective human-robot collaboration. It identifies key challenges faced by modern robot training systems. Based on these challenges, the article offers recommendations for selecting optimal training strategies according to the specific task type and available resources.
dc.format.extent53-61
dc.format.pages9
dc.identifier.citationSenchuk Y. Analysis of methods for training robotic manipulators to perform complex motion trajectories / Yurii Senchuk, Fedir Matiko // Energy Engineering and Control Systems. — Lviv : Lviv Politechnic Publishing House, 2025. — Vol 11. — No 1. — P. 53–61.
dc.identifier.citation2015Senchuk Y., Matiko F. Analysis of methods for training robotic manipulators to perform complex motion trajectories // Energy Engineering and Control Systems, Lviv. 2025. Vol 11. No 1. P. 53–61.
dc.identifier.citationenAPASenchuk, Y., & Matiko, F. (2025). Analysis of methods for training robotic manipulators to perform complex motion trajectories. Energy Engineering and Control Systems, 11(1), 53-61. Lviv Politechnic Publishing House..
dc.identifier.citationenCHICAGOSenchuk Y., Matiko F. (2025) Analysis of methods for training robotic manipulators to perform complex motion trajectories. Energy Engineering and Control Systems (Lviv), vol. 11, no 1, pp. 53-61.
dc.identifier.urihttps://ena.lpnu.ua/handle/ntb/123786
dc.language.isoen
dc.publisherВидавництво Львівської політехніки
dc.publisherLviv Politechnic Publishing House
dc.relation.ispartofЕнергетика та системи керування, 1 (11), 2025
dc.relation.ispartofEnergy Engineering and Control Systems, 1 (11), 2025
dc.relation.referencesen[1] Argall, B. D., Chernova, S., Veloso, M., & Browning, B. (2009) A survey of robot learning from demonstration. Robotics and Autonomous Systems, 57(5), 469–483.
dc.relation.referencesen[2] Billard, A., Calinon, S., Dillmann, R., & Schaal, S. (2008) Robot programming by demonstration. Springer handbook of Robotics (p. 1371–1394). Springer.
dc.relation.referencesen[3] Barekatain, A., Habibi, H., & Voos, H. (2024) A practical roadmap to learning from demonstration for robotic manipulators in manufacturing. Robotics, 13(3), 100.
dc.relation.referencesen[4] Underactuated Robotics. (n.d.). Ch. 21 – Imitation Learning. Retrieved from https://underactuated.mit.edu/imitation.html.
dc.relation.referencesen[5] Ross, S., Gordon, G., & Bagnell, D. (2011) A reduction of imitation learning and structured prediction to no-regret online learning. AISTATS, р. 627–635.
dc.relation.referencesen[6] Sutton, R. S., & Barto, A. G. (2018) Reinforcement Learning: An Introduction (2nd Edition). MIT Press.
dc.relation.referencesen[7] Kober, J., Bagnell, J. A., & Peters, J. (2013) Reinforcement learning in robotics: A survey. International Journal of Robotics Research, 32(11),1238–1274.
dc.relation.referencesen[8] Lillicrap, T. P., Hunt, J. J., Pritzel, A., et al. (2015) Continuous control with deep reinforcement learning.
dc.relation.referencesen[9] Schulman, J., Wolski, F., Dhariwal, P., Radford, A., & Klimov, O. (2017) Proximal policy optimization algorithms.
dc.relation.referencesen[10] Haarnoja, T., Zhou, A., Abbeel, P., & Levine, S. (2018) Soft actor-critic: Off-policy maximum entropy deep reinforcement learning with a stochastic actor.
dc.relation.referencesen[11] Ng, A., & Russell, S. (2000) Algorithms for inverse reinforcement learning. Proceedings of the 17th International Conference on Machine Learning (ICML), 663–670.
dc.relation.referencesen[12] Panait, L., & Luke, S. (2005) Cooperative multi-agent learning: The state of the art. Autonomous Agents and Multi-Agent Systems, 11(3),387–434.
dc.relation.referencesen[13] Nikolaidis, S., & Shah, J. A. (2013) Human-robot cross-training: computational formulation, modeling and evaluation of a human team training strategy. ACM/IEEE International Conference on Human-Robot Interaction.
dc.relation.referencesen[14] DEEPCOBOT – Collective Efficient Deep Learning and Networked Control for Multiple Collaborative Robot Systems. UiA WISENET Lab.2024. URL: https://deepcobot.uia.no/about
dc.relation.referencesen[15] Zhu, Y., Mottaghi, R., Kolve, E., et al. (2018) Reinforcement and imitation learning for diverse visuomotor skills. Proceedings of Robotics: Science and Systems (RSS), 33–40.
dc.relation.referencesen[16] Levine, S., Finn, C., Darrell, T., & Abbeel, P. (2016) End-to-End Training of Deep Visuomotor Policies. Journal of Machine Learning Research, 17(39), 1–40.
dc.relation.referencesen[17] Yaqing Wang, Quanming Yao, James Kwok, Lionel M. Ni (2019) Generalizing from a Few Examples: A Survey on Few-Shot Learning. Science, 53(3), 1–34.
dc.relation.referencesen[18] Finn, C., Abbeel, P., & Levine, S. (2017) Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks. Proceedings of the 34th International Conference on Machine Learning (ICML), 1126–1135.
dc.relation.referencesen[19] Naeem, S., Ali, A., & Anam, S. (2023) An unsupervised machine learning algorithms: Comprehensive review. International Journal of Computing and Digital Systems, 12(1), 1–10.
dc.relation.referencesen[20] Hjelm, R. D., Fedorov, A., Lavoie, E., et al. (2019) Learning deep representations by mutual information estimation and maximization. International Conference on Learning Representations (ICLR).
dc.relation.referencesen[21] James, S., Davison, A. J., & Johns, E. (2019) Sim-to-Real via Sim-to-Sim: Data-efficient Robotic Grasping via Randomized-to-Canonical Adaptation Networks. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).
dc.relation.referencesen[22] Pan, S. J., & Yang, Q. (2010) A Survey on Transfer Learning. IEEE Transactions on Knowledge and Data Engineering, 22(10), 1345–1359.
dc.relation.urihttps://underactuated.mit.edu/imitation.html
dc.relation.urihttps://deepcobot.uia.no/about
dc.rights.holder© Національний університет „Львівська політехніка“, 2025
dc.subjectробототехніка
dc.subjectробот-маніпулятор
dc.subjectсистема керування
dc.subjectметоди навчання
dc.subjectтраєкторія руху
dc.subjectадаптивність
dc.subjectrobotics
dc.subjectrobotic manipulators
dc.subjectteaching methods
dc.subjectadaptability
dc.titleAnalysis of methods for training robotic manipulators to perform complex motion trajectories
dc.title.alternativeАналіз методів навчання роботів-маніпуляторів для виконання складних траєкторій руху
dc.typeArticle

Files

Original bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
2025v11n1_Senchuk_Y-Analysis_of_methods_for_training_53-61.pdf
Size:
2.14 MB
Format:
Adobe Portable Document Format

License bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
license.txt
Size:
1.79 KB
Format:
Plain Text
Description: