Україна будує власну LLM: що це означає для держави й індустрії
- Катерина Мещерякова
- 1 день тому
- Читати 7 хв

У січні 2026 року Міністерство цифрової трансформації почало збирати текстові дані для розробки національної LLM. Це потрібно, щоб адаптувати модель до українського контексту. Власне розробку національної LLM Мінцифри та Київстар почали ще у червні 2025 року, а першу версію мають показати уже навесні.
Щоб розібратися, чи потрібна Україні власна LLM та і чим вона принципово відрізняється від глобальних моделей, HBJ поговорив із Senior Machine Learning Engineer у Universe Group Павлом Лисим. Він розповів, чим українська LLM відрізняється від глобальних моделей, яким чином можна її тестувати, та якою має бути мінімальна інфраструктура, аби все працювало коректно.

Власна LLM як стратегічний актив
— Почнімо з базового: навіщо державам власні LLM, якщо на ринку вже є потужні глобальні моделі?
Передусім це відбувається із міркувань суверенітету та безпеки. Глобальні моделі — це фактично чужа інфраструктура з чужими правилами гри. Дані можуть зберігатися або оброблятися за кордоном, доступ — обмежений у критичний момент, а поведінка моделі — змінена без контролю з боку держави.
Це створює прямі ризики для оборони, державних послуг, судової системи, медицини та критичної інфраструктури це створює прямі ризики. Тут потрібні рішення, які працюють локально, за необхідності — офлайн, підпорядковуються національному законодавству й забезпечують повну прозорість щодо походження даних і принципів навчання.
Друга причина — політична та економічна автономія. Власна LLM дає можливість повноцінно враховувати мову, культурні особливості та локальний контекст без зовнішніх компромісів. Вона також зменшує залежність від ідеологічних чи регуляторних фільтрів інших країн і стимулює розвиток внутрішньої ШІ-екосистеми.
Зважаючи на глобальну конкуренцію у ніші штучного інтелекту такі моделі стають елементом стратегічної інфраструктури. Країна, яка не має власних технологічних рішень цього рівня, ризикує опинитися в довгостроковій залежності від зовнішніх постачальників.
— Яку проблему національна LLM вирішує принципово краще, ніж комерційні API від OpenAI, Google чи Anthropic?
Комерційні API зазвичай залишаються «чорною скринькою»: держава не має повної інформації про те, де саме обробляються дані, на яких масивах текстів навчалася модель і як змінюється її поведінка після чергових оновлень.
Окрім цього, залишається відкритим питання юридичної відповідальності за помилки або некоректні рішення системи. Для критично важливих сфер така залежність є неприйнятною, адже неможливо створити по-справжньому суверенну, прозору для аудиту та відтворювану систему, якщо її основа — зовнішній сервіс.
— Чи правильно порівнювати національну LLM із ChatGPT, чи це зовсім різні класи продуктів із різною логікою застосування?
ChatGPT і національна LLM можуть бути побудовані на схожих технологіях, але по суті це різні продукти з різними цілями. ChatGPT — це масовий сервіс для користувачів: зручний інтерфейс, SaaS-модель, універсальні запити, фокус на UX і масштабування.
Натомість національна LLM — це радше інфраструктурна технологія. Вона може взагалі не мати публічного чату й працювати «під капотом» державних систем, виконуючи специфічні завдання.
Контроль над даними як передумова державних рішень
— Яку роль у рішенні про власну LLM відіграє контроль над даними — і про які саме дані йдеться в державному контексті?
Це ключовий аргумент на користь створення власної LLM. Для держави дані — це не просто input для навчання моделі, а стратегічний актив. Їхній витік або неконтрольоване використання створює прямі юридичні, безпекові та політичні ризики.

Комерційні API не забезпечують повного суверенного контролю. Держава не має прозорості щодо повного шляху обробки даних, не може гарантувати їхню недоступність для третіх сторін і не контролює, як ці дані можуть вплинути на подальшу поведінку моделі після оновлень чи донавчання.
Власна LLM дозволяє працювати з чутливою інформацією локально — без передачі за кордон і без ризику стороннього використання для навчання. Водночас зберігається можливість повного аудиту, гнучкого управління доступом і дотримання національного законодавства. Саме цей рівень контролю неможливо відтворити через зовнішні комерційні сервіси.
— Наскільки питання мови й локального контексту є критичними для державних AI-рішень, і чому це складно масштабувати через глобальні моделі?
Держава працює з правом, адміністративними процедурами й формулюваннями, де одна й та сама фраза може мати різні юридичні наслідки. Помилка в терміні, відтінку значення чи контексті — це ризик неправомірного рішення. Глобальні моделі зазвичай оптимізовані під масовий контент і найпоширеніші мови, тому менші мови, локальні правові норми, історичні та інституційні контексти в них представлені поверхнево.
Масштабувати це через глобальні моделі складно, адже локальний контекст не зводиться до перекладу. Він охоплює національне законодавство, структуру державних органів, внутрішні реєстри, бюрократичну лексику, історичні судові рішення та неформальні адміністративні практики — усе те, що неможливо повноцінно додати через промпти чи RAG без повного контролю над моделлю. Власна LLM дозволяє вбудувати цей контекст у саму логіку системи, зробивши її не просто багатомовною, а інституційно коректною.
Це особливо помітно, якщо знати кілька мов: частина слів не має точних відповідників. Поняття на кшталт шведського “Lagom” чи українського “Гетьман”, носять культурний, історичний і інституційний сенс, який неможливо передати одним перекладом. Глобальні моделі часто згладжують ці відмінності, підміняючи унікальні поняття приблизними аналогами. Для державних AI-систем це критично, адже мова тут — не просто інструмент комунікації, а носій правових норм, управлінської логіки й суспільних домовленостей, які без глибокого локального вкорінення модель не здатна повноцінно зрозуміти.
Як перевірити, що LLM розуміє країну
— Як тестувати українську LLM, щоб зрозуміти, що вона розуміє контекст країни?
Тестувати українську LLM варто не лише мовними бенчмарками, а контекстом. Найпростіший індикатор — дати моделі задачі з реального українського життя: адміністративні процедури, судові кейси, формулювання законів, історичні й політичні питання з неоднозначним бекграундом.
Якщо модель розуміє наслідки рішень, ролі інституцій і внутрішню логіку процесів, тоді контекст справді засвоєний. Особливо показові кейси з двозначними термінами, скороченнями, бюрократичною мовою та «сірою зоною» між законом і практикою. Саме тут глобальні моделі часто помиляються, бо не відчувають, як система працює насправді.
Фінальний етап — людська оцінка українськими експертами. Без human-in-the-loop тестування зрозуміти глибину контексту неможливо.
— Які бенчмарки загалом найбільш доречно використовувати тут для оцінки якості моделі?
Для української LLM логічно поєднати загальні та локальні підходи до оцінювання.
З одного боку, варто використовувати міжнародні бенчмарки як-от MMLU, HELM чи BIG-bench. Вони дозволяють перевірити базові мовні, логічні та аналітичні здібності моделі й зрозуміти, як вона виглядає на фоні інших систем.
З іншого боку, цього недостатньо без локальних українських бенчмарків — масивів судових рішень, текстів законів, адміністративних процедури, історичних та культурних кейсів, а також domain-specific кейсів — у медицині, держпослугах, економіці чи регуляторній сфері. Саме вони показують, наскільки модель розуміє український контекст.
Окремо обов’язковою має бути human-in-the-loop оцінка. Юристи, держслужбовці та галузеві експерти повинні перевіряти не лише формальну правильність відповідей, а й коректність інтерпретації контексту та можливі наслідки рішень.
— Чи можна технічно зменшити ризик того, що модель відтворюватиме російські наративи або маніпулятивні формулювання?
Так, це можливо. Найбільший ефект дає жорсткий відбір і фільтрація даних: виключення токсичних, маніпулятивних і проросійських джерел ще на етапі формування датасету. Якщо модель не «насичена» такими текстами, ймовірність їхнього відтворення суттєво зменшується.
Другий рівень — це контрастивне навчання. Модель можна цілеспрямовано навчати на українських даних у протиставленні до російських наративів, показуючи різницю в інтерпретаціях, фактажі та формулюваннях. Це дозволяє не просто уникати токсичних конструкцій, а й краще розуміти, чому вони є маніпулятивними.
Третій інструмент — fine-tuning і інструкційні підходи. За їх допомогою можна задати чіткі пріоритети: орієнтацію на перевірені українські джерела, нейтральну термінологію, коректне позначення суб’єктів і подій. Це не означає «пропаганду», а радше контроль стандартів точності й безпеки.
Водночас важливо розуміти: повністю усунути ризик неможливо. Але завдяки продуманій роботі з даними, архітектурі навчання та людському контролю його можна суттєво мінімізувати.
Технічні ресурси та інженерна логіка
— Що вигідніше і доречніше: тренувати LLM з нуля, чи донавчати open-source моделі?
Для України донавчання open-source моделей — найбільш раціональний старт. Повноцінне тренування з нуля має сенс лише за наявності сотень мільйонів доларів і повного доступу до масштабних корпусів даних.
У нашій ситуації логіка інша: взяти сильну базову модель, максимально інвестувати в українські дані, провести глибокий domain-specific fine-tuning і вибудувати систему контролю та аудиту. Такий підхід дозволяє отримати 80% результату за 20% вартості.
— Чи є ризик, що національні LLM стануть технологічно застарілими ще до повноцінного запуску? Чи маємо ми приклади, як цим працюють інші країни?
Так, подібний ризик існує. Її розробка триває роками, тоді як глобальні компанії постійно випускають нові, потужніші моделі. У результаті державне рішення може відставати за продуктивністю, навіть якщо воно закриває стратегічні завдання суверенітету та безпеки.
Країни реагують на це по-різному. Китай регулярно оновлює моделі у співпраці з приватними компаніями. ЄС робить ставку на відкриті моделі та швидке оновлення архітектур. США інтегрують комерційні LLM із власними обмеженнями для захисту чутливих даних. Найуспішніші стратегії поєднують розвиток національних моделей із регулярними апдейтами та частковим використанням глобальних рішень.
— Який мінімальний «поріг» інфраструктури потрібен, щоб українська LLM була не демоверсією, а реальною системою? Що важливіше на старті: GPU, швидке сховище, мережа, MLOps?
Щоб модель стала повноцінною системою, а не демонстрацією, достатньо обмеженої кількості сучасних GPU для донавчання, швидкого сховища даних і, що критично, зрілого MLOps. На старті саме MLOps і робота з даними важливіші за кількість відеокарт: без контролю версій, відтворюваності та управління доступами система швидко втрачає керованість.
Якщо в країні бракує GPU, це не є стоп-фактором. Можна донавчати open-source моделі, використовувати LoRA/QLoRA, робити distillation у компактніші моделі, а також тимчасово залучати хмару для тренування з локальним інференсом.
Найбільший ефект за найменші кошти дають якісні, легально зібрані українські дані та фокус на конкретних державних і інституційних задачах.
Складники успіху
— Який головний bottleneck української LLM зараз: GPU, дані, люди, менеджмент, щось інше?
Головна перепона для української LLM зараз — недостатня база легальних, структурованих даних та відсутність команд, які можуть їх якісно підготувати й інтегрувати. GPU і залізо можна докупити (взяти в оренду), а ось без людей, процесів і менеджменту, що координує роботу з даними, модель навряд чи покаже хороші результати в реальній роботі.

— Як запуск національної LLM може вплинути на внутрішній AI-ринок — стартапи, інтеграторів, розробників?
Запуск національної LLM може суттєво прискорити розвиток внутрішнього AI-ринку. По-перше, з’являється базова інфраструктура й набір сервісів, на яких стартапи можуть будувати продукти без залежності від глобальних комерційних API.
По-друге, формується попит на інтеграторів, дата-інженерів і спеціалістів із fine-tuning, що стимулює розвиток освіти та ринку праці.
По-третє, національна модель задає локальні стандарти та правила використання ШІ. Стартапи й розробники отримують доступ до надійного, суверенного ресурсу для R&D, швидкого прототипування та комерційних рішень у державному й приватному секторах. У результаті виникає класичний мультиплікаційний ефект: державна LLM стимулює появу нових продуктів, сервісів і бізнес-моделей на внутрішньому ринку.


