ПАРАМЕТРИЧНО ЕФЕКТИВНІ МЕТОДИ АДАПТАЦІЇ ВЕЛИКИХ МОВНИХ МОДЕЛЕЙ

Завантажень

Завантажень за місяць протягом останнього року

Ляшко, Д. А. та Турбал, Ю. В. та Климюк, Ю. Є. (2025) ПАРАМЕТРИЧНО ЕФЕКТИВНІ МЕТОДИ АДАПТАЦІЇ ВЕЛИКИХ МОВНИХ МОДЕЛЕЙ. Вісник Національного університету водного господарства та природокористування (1(109)). с. 130-139.

[img] Text
Vt4202511.pdf

Download(241kB)

Анотація

Епоха великих мовних моделей (ВММ) ознаменувала собою значний прогрес у галузі обробки природної мови. Донавчання стало невід’ємною складовою адаптації цих моделей до різноманітних спеціалізованих застосувань. У статті розглядаються сучасні методи донавчання великих мовних моделей (ВММ), що відіграють ключову роль у їх адаптації до спеціалізованих застосувань. Аналізуються параметрично ефективні підходи (PEFT), які дозволяють значно знизити обчислювальні витрати, зберігаючи при цьому продуктивність, порівнянну з повнопараметричним донавчанням. Особливу увагу приділено адаптерним методам, техніці LoRA (Low-Rank Adaptation) та префіксному налаштуванню, які дозволяють скоротити обсяг необхідних обчислювальних ресурсів. Окремий розділ присвячено стратегіям оптимізації процесу донавчання, зокрема використанню навчання зі змішаною точністю, градієнтної акумуляції та ефективних оптимізаторів (AdamW, Adafactor). Також розглядається баланс між спеціалізацією моделей та їх узагальнювальною здатністю після донавчання, що є критично важливим для забезпечення високої продуктивності на різних завданнях. У статті окреслено перспективні напрямки досліджень, як-от інтеграція PEFT із методами компресії моделей, адаптація до мультимодальних задач та автоматизація вибору оптимальних стратегій донавчання. Узагальнюючи, робота акцентує увагу на необхідності подальшого розвитку інноваційних методів для підвищення ефективності, надійності та універсальності ВММ.

Title in English

PARAMETRICALLY EFFICIENT METHODS FOR ADAPTATION OF LARGE LANGUAGE MODELS

English abstract

The era of large language models (LLMs) has marked significant progress in the field of natural language processing. Fine-tuning has become an essential component in adapting these models to various specialized applications. This paper explores modern fine-tuning methods for LLMs, which play a crucial role in their adaptation to specific domains. The study analyzes parameter-efficient fine-tuning (PEFT) approaches that significantly reduce computational costs while maintaining performance comparable to full-parameter fine-tuning. Particular attention is given to adapter-based methods, Low-Rank Adaptation (LoRA), and prefix-tuning, which help minimize the required computational resources. A dedicated section focuses on strategies for optimizing the fine tuning process, including mixed precision training, gradient accumulation, and efficient optimizers (AdamW, Adafactor). The paper also examines the balance between model specialization and generalization after fine-tuning, which is critical for ensuring high performance across different tasks. The study outlines promising research directions such as integrating PEFT with model compression methods, adapting LLMs for multimodal tasks, and automating the selection of optimal fine-tuning strategies. In summary, the paper highlights the need for further development of innovative approaches to enhance the efficiency, reliability, and universality of LLMs.

Тип елементу : Стаття
Ключові слова: мовна модель; адаптація; донавчання; оптимізація; метод; language model; adaptation; retraining; optimization; method
УДК: 004.421
Бібліографічний опис: Ляшко Д. А. Параметрично ефективні методи адаптації великих мовних моделей / Д. А. Ляшко, Ю. В. Турбал, Ю. Є. Климюк // Вісник НУВГП. Технічні науки : зб. наук. праць. - Рівне : НУВГП, 2025. - Вип. 1(109). - С. 130-139.
Тематики: Видання університету > Вісник НУВГП > серія "Технічні науки" > 2025 > Вісник 1
Видання університету > Вісник НУВГП > серія "Технічні науки" > 2025
Користувач, що депонує: С. Й. Гипчинська
Дата внесення: 17 Бер 2026 11:33
Останні зміни: 17 Бер 2026 11:33
URI: http://ep3.nuwm.edu.ua/id/eprint/36721
Перегляд елементу Перегляд елементу

Завантажень

Завантажень за місяць протягом останнього року