x
Warning: DOMDocument::loadHTML(): Tag section invalid in Entity, line: 64 в simple_table_of_contents_generate_table_of_contents() (рядок 108 із /var/www/vhosts/kth/observer/ar25.org/observer/www/sites/all/modules/contrib/simple_table_of_contents/simple_table_of_contents.module).
x
Warning: DOMDocument::loadHTML(): Tag section invalid in Entity, line: 67 в simple_table_of_contents_generate_table_of_contents() (рядок 108 із /var/www/vhosts/kth/observer/ar25.org/observer/www/sites/all/modules/contrib/simple_table_of_contents/simple_table_of_contents.module).
x
Зображення користувача Світ Зелений.
Світ Зелений

Як створювали українську велику мовну модель Lapa LLM: інновації та виклики

У світі штучного інтелекту з'явилася нова зірка з України — велика мовна модель Lapa LLM, адаптована спеціально для нашої мови. Як створювали цю інновацію, хто стояв за проєктом і які виклики подолали розробники? Ця стаття розкриває процес народження Lapa LLM, показуючи, як науковці поєднали технології та національний контекст для створення потужного інструменту.

Представлення моделі та її мета

Lapa LLM v0.1.2 була представлена 27 жовтня 2025 року, як швидка, точна та повністю відкрита українська велика мовна модель. Вона призначена для досліджень і комерційного використання, з акцентом на ефективну обробку україномовного тексту.

Мета мовної моделі — зробити швидку, точну та повністю відкриту українську LLM, придатну для досліджень і комерційного використання.

Модель демонструє стабільну роботу з великими текстами, збереження контексту та точність у відповідях, роблячи її корисною для чатботів, перекладів і аналізу текстів.

Короткий висновок: Lapa LLM — це крок до незалежності України в ШІ, з фокусом на відкритість і практичність.

Команда розробників і основа моделі

Над проєктом працювали науковці з Українського католицького університету (УКУ), Київського політехнічного інституту, Львівської політехніки та Гірничо-металургійної академії у Кракові. Основою стала архітектура Gemma-3-12B від Google, яку адаптували для української мови.

Основою моделі стала архітектура Gemma-3-12B.

Розробники замінили 80 тисяч із 250 тисяч токенів, що покращило обробку тексту, зменшивши обчислення в півтора раза. Це дозволило моделі стати ефективнішою для україномовних завдань.

Короткий висновок: Міжнародна співпраця та адаптація існуючих технологій стали ключем до успіху.

Процес навчання та дані

Навчання проводилося на відкритих українських корпусах текстів, оцінюваних за читабельністю, граматикою та відсутністю дезінформації. На фінальних етапах використовували матеріали Бібліотеки Гарварду. Розробники опублікували вихідний код для тренування та 25 навчальних датасетів на GitHub.

За словами розробників, при створенні Lapa LLM було замінено 80 тисяч із 250 тисяч токенів, завдяки чому обробка україномовного тексту стала ефективнішою — тепер для тих самих завдань потрібно у півтора раза менше обчислень.

Перші 5 датасетів та частину коду вже доступні, а решту обіцяють викласти незабаром. Це робить процес прозорим і відтворюваним.

Короткий висновок: Використання якісних даних забезпечило точність і етичність моделі.

Технічні особливості та продуктивність

Модель базується на оптимізованій архітектурі Gemma, з покращенням швидкості для української мови. Вона обходить оригінальну Gemma та багато закритих моделей у тестах, наближаючись до лідера — MamayLM.

В УКУ кажуть, що за швидкістю роботи з українською нова модель обходить оригінальну Gemma та більшість закритих моделей аналогічного класу.

Lapa LLM підходить для корпоративних асистентів, перекладів і роботи з конфіденційними даними без зовнішніх серверів. У тестах вона показала послідовність у виявленні маніпуляцій.

Короткий висновок: Оптимізації роблять модель конкурентоспроможною на ринку ШІ.

Доступність і майбутні плани

Модель повністю відкрита для комерційного використання, з кодом на GitHub. Розробники планують створити версію для міркування, розширити корпуси для аналізу зображень і програмування.

Далі науковці планують створити міркувальну (reasoning) версію моделі та розширити корпуси для аналізу зображень і програмування.

У версії 1.0 обіцяють перевершити MamayLM. Це частина зусиль Міністерства цифрової трансформації для створення ШІ-інструментів для держави та бізнесу.

Короткий висновок: Відкритість і плани розвитку забезпечують довгостроковий потенціал.

Висновок

Створення Lapa LLM — це результат співпраці українських науковців, адаптації передових технологій і фокусу на якісних даних. Модель не лише ефективна для української мови, але й відкрита, що сприяє інноваціям. З планами на розширення, Lapa LLM може стати основою для нових ШІ-рішень в Україні, підкреслюючи важливість національних розробок у глобальному контексті.

  Video:

 

Наші інтереси: 

Ця інформація допоможе зрозуміти, як працюють сучасні ШІ-моделі, і надихне на використання Lapa LLM у повсякденних завданнях, як створення чатботів чи переклад текстів. Ви можете завантажити код з GitHub, експериментувати з моделлю для особистих проєктів чи бізнесу, покращуючи ефективність і підтримуючи українські технології.

Якщо ви помітили помилку, то виділіть фрагмент тексту не більше 20 символів і натисніть Ctrl+Enter
Підписуюсь на новини

Зверніть увагу

Френк Герберт і його «вулики Геллстрома»

«Великий Вулик» Френка Герберта – етномережа вільних людей у фантастичному романі «Вулик Геллстрома» (+відео)

Це не просто соціальна фантастика. Це продовження саги про фріменів – вільних людей, які формують новий світ. Згідно з історичною логікою, їхнім наступним і неминучим кроком стане творення вільної...

Останні записи