Техніки промптингу для покращення використання великих мовних моделей

dc.citation.epage285
dc.citation.issue2
dc.citation.journalTitleКомп'ютерні системи та мережі
dc.citation.spage268
dc.citation.volume6
dc.contributor.affiliationНаціональний університет “Львівська політехніка”
dc.contributor.affiliationНаціональний університет “Львівська політехніка”
dc.contributor.affiliationНаціональний університет “Львівська політехніка”
dc.contributor.affiliationНаціональний університет “Львівська політехніка”
dc.contributor.affiliationLviv Polytechnic National University
dc.contributor.affiliationLviv Polytechnic National University
dc.contributor.affiliationLviv Polytechnic National University
dc.contributor.affiliationLviv Polytechnic National University
dc.contributor.authorЮрчак, І. Ю.
dc.contributor.authorКичук, О. О.
dc.contributor.authorОксентюк, В. М.
dc.contributor.authorХіч, А. О.
dc.contributor.authorYurchak, I. Yu.
dc.contributor.authorKychuk, O. O.
dc.contributor.authorOksentyuk, V. M.
dc.contributor.authorKhich, A. O.
dc.coverage.placenameЛьвів
dc.coverage.placenameLviv
dc.date.accessioned2025-12-11T11:15:25Z
dc.date.created2024-10-10
dc.date.issued2024-10-10
dc.description.abstractРобота присвячена дослідженню базових технік складання запитів для підвищення ефективності використання великих мовних моделей. Значну увагу приділено питанню інженерії запитів (промптингу). Детально розглянуто різноманітні техніки: промптинг без зразка, зі зворотним зв’язком, з кількома прикладами, ланцюжкове мислення, дерево думок, інструкція для налаштування. Значну увагу приділено технологіям Реакція та Дія (Reaction & Act Prompting) та Доповнена пошукова генерація (Retrieval Augmented Generation, RAG) як критично важливих чинників забезпечення ефективної взаємодії з ВММ. Висвітлено особливості застосування цих технік та їхній вплив на результат. Однак, використання повного потенціалу вимагає ретельного підходу та врахування особливостей застосування. Здійснено огляд параметрів великих мовних моделей, таких як температура, тop P, максимальна кількість токенів, стоп-послідовності, штрафи за частоту та присутність тощо. Зазначено, що розроблення запитів є ітеративним процесом, який передбачає послідовне випробування різних варіантів для досягнення оптимальних результатів. Всі наведені у дослідженні техніки підкріплено наочними прикладами з отриманими результатами. Зазначено, для яких типів дана техніка буде більш доречною. У результатах дослідження наведено порівняння як базових технік, так і складніших технологій ReAct та RAG. Інженерія запитів — це ключова технологія ефективного використання великих мовних моделей. Вона актуальна у зв’язку зі зростанням застосування штучного інтелекту у всіх сферах діяльності людства, і її роль лише збільшуватиметься з розвитком технологій. Вміння правильно формулювати запити стає важливою на- вичкою, необхідною для роботи з сучасними великими моделями, особливо в умовах їхньої універсальності та складності.
dc.description.abstractThe work is dedicated to the study of fundamental prompting techniques to improve the efficiency of using large language models (LLMs). Significant attention is given to the issue of prompt engineering. Various techniques are examined in detail: zero-shot prompting, feedback prompting, few-shot prompting, chain-of-thought, tree of thoughts, and instruction tuning. Special emphasis is placed on Reaction & Act Prompting and Retrieval Augmented Generation (RAG) as critical factors in ensuring effective interaction with LLMs. The features of applying these techniques and their impact on results are highlighted. However, leveraging their full potential requires a careful approach and consideration of application specifics. A review of the parameters of large language models, such as temperature, top P, maximum number of tokens, stop sequences, frequency and presence penalties, etc., is provided. It is noted that prompt development is an iterative process that involves sequential testing of different options to achieve optimal results. All techniques discussed in the study are supported by illustrative examples with obtained results. It is indicated which types of tasks each technique is more suitable for. The study results include comparisons of both fundamental techniques and more advanced technologies such as ReAct and RAG. Prompt engineering is a key technology for the effective use of large language models. It is relevant due to the increasing application of artificial intelligence in all areas of human activity, and its role will only grow with the development of technology. The ability to correctly formulate prompts is becoming an important skill necessary for working with modern large models, especially given their versatility and complexity.
dc.format.extent268-285
dc.format.pages18
dc.identifier.citationТехніки промптингу для покращення використання великих мовних моделей / І. Ю. Юрчак, О. О. Кичук, В. М. Оксентюк, А. О. Хіч // Комп'ютерні системи та мережі. — Львів : Видавництво Львівської політехніки, 2024. — Том 6. — № 2. — С. 268–285.
dc.identifier.citation2015Техніки промптингу для покращення використання великих мовних моделей / Юрчак І. Ю. та ін. // Комп'ютерні системи та мережі, Львів. 2024. Том 6. № 2. С. 268–285.
dc.identifier.citationenAPAYurchak, I. Yu., Kychuk, O. O., Oksentyuk, V. M., & Khich, A. O. (2024). Tekhniky promptynhu dlia pokrashchennia vykorystannia velykykh movnykh modelei [Capabilities and limitations of large language models]. Computer Systems and Networks, 6(2), 268-285. Lviv Politechnic Publishing House. [in Ukrainian].
dc.identifier.citationenCHICAGOYurchak I. Yu., Kychuk O. O., Oksentyuk V. M., Khich A. O. (2024) Tekhniky promptynhu dlia pokrashchennia vykorystannia velykykh movnykh modelei [Capabilities and limitations of large language models]. Computer Systems and Networks (Lviv), vol. 6, no 2, pp. 268-285 [in Ukrainian].
dc.identifier.doiDOI: https://doi.org/10.23939/csn2024.02.268
dc.identifier.urihttps://ena.lpnu.ua/handle/ntb/123986
dc.language.isouk
dc.publisherВидавництво Львівської політехніки
dc.publisherLviv Politechnic Publishing House
dc.relation.ispartofКомп'ютерні системи та мережі, 2 (6), 2024
dc.relation.ispartofComputer Systems and Networks, 2 (6), 2024
dc.relation.references1.Prompt Engineering Guide, URL: https://www.promptingguide.ai, (Accessed: 13 September 2024).
dc.relation.references2.Zhao, Wayne Xin, et al. (2023) "A survey of large language models." arXiv preprint arXiv:2303.18223(2023). https://doi.org/10.48550/arXiv.2303.18223
dc.relation.references3.Pranab Sahoo, et al (2024) A Systematic Survey of Prompt Engineering in Large Language Models:Techniques and Applications. arXiv:2402.07927. https://doi.org/10.48550/arXiv.2402.07927
dc.relation.references4.OpenAI, URL: https://platform.openai.com/docs/introduction, (Accessed: 13 September 2024).
dc.relation.references5.Google AI, URL: https://ai.google.dev/gemini-api/docs/model-tuning, (Accessed: 13 September 2024).
dc.relation.references6.Anthropic, URL: https://docs.anthropic.com/claude/docs/intro-to-claude, (Accessed: 13 September 2024).
dc.relation.references7.Matthew Renze, Erhan Guven (2024) The Effect of Sampling Temperature on Problem Solving in Large Language Models. arXiv:2402.05201. https://doi.org/10.48550/arXiv.2402.05201.
dc.relation.references8.Matthew Renze, Erhan Guven. The Effect of Sampling Temperature on Problem Solving in Large Language Models (2024). arXiv:2402.05201, https://doi.org/10.48550/arXiv.2402.05201
dc.relation.references9.Sander Schulhoff, Michael Ilie, Nishant Balepur et al The Prompt Report: A Systematic Survey of Prompting Techniques (2024) arXiv:2406.06608v1, https://doi.org/10.48550/arXiv.2406.06608.
dc.relation.referencesen1.Prompt Engineering Guide, URL: https://www.promptingguide.ai, (Accessed: 13 September 2024).
dc.relation.referencesen2.Zhao, Wayne Xin, et al. (2023) "A survey of large language models." arXiv preprint arXiv:2303.18223(2023). https://doi.org/10.48550/arXiv.2303.18223
dc.relation.referencesen3.Pranab Sahoo, et al (2024) A Systematic Survey of Prompt Engineering in Large Language Models:Techniques and Applications. arXiv:2402.07927. https://doi.org/10.48550/arXiv.2402.07927
dc.relation.referencesen4.OpenAI, URL: https://platform.openai.com/docs/introduction, (Accessed: 13 September 2024).
dc.relation.referencesen5.Google AI, URL: https://ai.google.dev/gemini-api/docs/model-tuning, (Accessed: 13 September 2024).
dc.relation.referencesen6.Anthropic, URL: https://docs.anthropic.com/claude/docs/intro-to-claude, (Accessed: 13 September 2024).
dc.relation.referencesen7.Matthew Renze, Erhan Guven (2024) The Effect of Sampling Temperature on Problem Solving in Large Language Models. arXiv:2402.05201. https://doi.org/10.48550/arXiv.2402.05201.
dc.relation.referencesen8.Matthew Renze, Erhan Guven. The Effect of Sampling Temperature on Problem Solving in Large Language Models (2024). arXiv:2402.05201, https://doi.org/10.48550/arXiv.2402.05201
dc.relation.referencesen9.Sander Schulhoff, Michael Ilie, Nishant Balepur et al The Prompt Report: A Systematic Survey of Prompting Techniques (2024) arXiv:2406.06608v1, https://doi.org/10.48550/arXiv.2406.06608.
dc.relation.urihttps://www.promptingguide.ai
dc.relation.urihttps://doi.org/10.48550/arXiv.2303.18223
dc.relation.urihttps://doi.org/10.48550/arXiv.2402.07927
dc.relation.urihttps://platform.openai.com/docs/introduction
dc.relation.urihttps://ai.google.dev/gemini-api/docs/model-tuning
dc.relation.urihttps://docs.anthropic.com/claude/docs/intro-to-claude
dc.relation.urihttps://doi.org/10.48550/arXiv.2402.05201
dc.relation.urihttps://doi.org/10.48550/arXiv.2406.06608
dc.rights.holder© Національний університет „Львівська політехніка“, 2024
dc.rights.holder© Юрчак І.Ю., Кичук О.О., Оксентюк В.М., Хіч А.О., 2024
dc.subjectвеликі мовні моделі
dc.subjectінженерія запитів
dc.subjectпромптинг
dc.subjectтехніки запи- тів
dc.subjectгенерування контенту
dc.subjectlarge language models
dc.subjectprompt engineering
dc.subjectprompting technique
dc.subjectcontent generation
dc.subject.udc004.8
dc.titleТехніки промптингу для покращення використання великих мовних моделей
dc.title.alternativeCapabilities and limitations of large language models
dc.typeArticle

Files

Original bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
2024v6n2_Yurchak_I_Yu-Capabilities_and_limitations_268-285.pdf
Size:
2.23 MB
Format:
Adobe Portable Document Format

License bundle

Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
license.txt
Size:
1.85 KB
Format:
Plain Text
Description: