Упс! Не вдала спроба:(
Будь ласка, спробуйте ще раз.
preview
Ольга Лопоха
Ольга Лопоха Журналістка
8
20 червня 2025 6 хвилин читання

Чи безпечна мовна модель від Мінцифри та «Київстару»?

17 червня Мінцифри та «Київстар» уклали меморандум про спільне розроблення української великої мовної моделі

Українська LLM має стати основою для створення цифрових продуктів із штучним інтелектом у державному та бізнес-секторі, що має посприяти покращенню послуг для користувачів і підвищенню ефективності організацій.

Водночас постають питання щодо етичних та технологічних ризиків LLM. Як розробники планують боротися з галюцинаціями та дезінформацією? Чи планується ділитися напрацюванннями за кордон? Та які можливості для користувачів надасть українська LLM?

SPEKA поспілкувалась із Данилом Цьвоком, Chief AI Officer Мінцифри, й отримала ексклюзивні відповіді.


Чи безпечна мовна модель від Мінцифри та «Київстару»? зображення 1 Данило Цьвок

Безпека використання української LLM

Як буде гарантована безпека та етичність використання цієї АІ-моделі? Та як будете боротися з галюцинаціями, що присутні в усіх LLM?

Для нас це питання суперпріоритетне. Безпека є під час розроблення і та використання.

По-перше, ми використовуватимемо сертифіковані інфраструктури, які відповідають сучасним стандартам безпеки і гарантують якісне та безпечне середовище для тренування моделі.

По-друге, ми здійснюємо анонімізацію персональних даних. Персональні дані не будуть потрапляти у тренувальну вибірку для великої мовної моделі.

По-третє, будуть розроблені та працюватимуть ґардрейли (guardrails — запобіжники). Тобто фільтри на вході і на виході, які унеможливлять prompt injection — спроби маніпуляцій, які можуть вплинути на роботу моделі або послабити рівень її безпеки. Також ґардрейли блокуватимуть запити з етично неприйнятним змістом.

Підписуйтеся на наші соцмережі

Окремий напрям — підхід на рівні етичного комітету. Нам треба зрозуміти весь мепінг даних. Важливо, щоб запити, які потрапляють у модель, не містили упереджень, тому так зване bias-тестування має здійснюватись як на етапах формування датасетів, так і на етапах безпосереднього тестування якості роботи моделі, коли буде створена перша версія.

І, звичайно, це тестування якості на рівні human evaluation — оцінювання людьми, яке дозволяє виявити потенційні етичні упередження чи ознаки дискримінації. 

Усе це формує комплексну систему, що включає як технічні інструменти, так і етичні процедури контролю.

Анонсовано залучення науковців для навчання AI-моделі на достовірних даних. LLM буде використовувати лише ці навчальні дані чи також матиме доступ до актуальної інформації з інтернету?Якщо матиме доступ до мережі, то як збираєтеся боротися з дезінформацією і «синтетичними даними», тобто коли відповіді, згенеровані ШІ, знову потрапляють у навчальні вибірки, що призводить до поширення недостовірної інформації?

Насамперед нам треба зробити фундаментальну версію. Це передбачає роботу з визначеним об'ємом даних, які стають фундаментальними і визначальними для цієї моделі, та релізимо першу версію. Те, про що говорите ви, — це подальші стадії розвитку моделі.

Зараз дуже модно казати, що модель самодонавчається, на практиці ці речі дещо складніші. Ми собі ставимо за мету зробити реліз першої версії моделі.

Це open source модель. Треба розуміти, що після публікації у відкритий доступ вона не зможе самонавчатися, це буде зафіксована версія. 

Це означає, що у майбутньому ми зможемо створити механізм для розроблення наступних поколінь моделей. І тут важливо, що ці нові версії також перебуватимуть під контролем — як з технологічного, так і з етичного погляду.

Тобто всі наступні версії цієї LMM будуть контролювати розробники?

Так, і наше завдання — забезпечити цей контроль.

Щодо того, що ми зібрали правильні дані без вмісту, який може зашкодити національній безпеці чи містити елементи дискримінації. І це ми говоримо лише про етап збору та формування корпусів [етичного, технічного та стратегічного].

Але водночас ми розуміємо, що LLM може не завжди давати коректну відповідь і можуть бути певні ознаки дискримінаційного характеру. Щоб мінімізувати такі випадки і забезпечити якісні відповіді, будемо тестувати саму модель. Ми підконтрольно зібрали дані, коли реалізуємо модель, будемо тестувати якість, безпеку та наявність певних упереджень.

Коли ми говоримо про моделі, то маємо на увазі не тільки центральну модель, правильніше говорити про певну екосистему. Ми так само хочемо побудувати ґардрейли — це також мовні моделі, але з меншою кількістю параметрів, вони виступають своєрідним фільтром, який на вході і на виході після оперування моделі відловлюють ті речі, які можуть зашкодити.

Тобто які фільтрують її?

Так, вони виступають фільтром на вхід, тому що є техніки, наприклад prompt injection, з допомогою яких ви можете задати команди, що будуть стосуватися самої логіки виконання моделі, щоб вона надала відповідь, яка може бути дещо шкідливою. Аби такий prompt injection не потрапив у модель, існує фільтр, який його на період блокує і каже «Вибачте, це суперечить політиці нашої моделі» або «Цей запит може ображати інших користувачів».

Це концептуальне бачення того, як би ми хотіли це робити. Детально ми це все ще будемо пропрацьовувати, але в будь-якому разі ці ґардрейли мають бути у нашій моделі.

Можливості української LLM

Ця мовна модель зможе генерувати зображення чи лише відповідати текстом?

У першій версії поки що текст. Але ми сьогодні говорили, що хочемо продовжити розробку, і хочемо, щоб ця LLM була мультимодальною і могла працювати не лише з текстом, але й з візуальним контентом. Ймовірно, це може бути і генерування зображень.

Експорт технології

Чи плануєте експорт цієї технології?

Ми хочемо максимально відкрито ділитися досвідом того, як ми підходили до розроблення великої мовної моделі, тому що на у відкритому доступі мало інформації стосовно того, як розробити LLM. Тому ми плануємо ділитися досвідом і будемо це робити максимально відкрито для світу.

А це не спричинить витік якоїсь інформації?

Можна говорити про технологічний підхід, а можна — про конкретні дані, які були включені, тобто є різниця між тим, що можна шерити, що ні. Це питання на перетині етично-технологічних бордів. Щоб відповісти на ці питання, ми формуємо структуру з людей, які мають компетенції як у технологічному секторі, так і в культурно-цінністому та правовому напрямах, щоб мати можливість відповісти на такі питання.

Ділитись — так. Питання — чим та наскільки глибоко. Наприклад, підходами, як ми це робили, можна, я не бачу тут конфіденційної інформації.

Це про розвиток обміну досвідом та про impact України під час розроблення її суверенної моделі для цілого світу
8
Icon 6
Коментарі
Нехай би вже ШІ для укрпошти зробили, щоб посилки не губились
Антон Бащенко 20.06.2025, 01:33
Цікаво, чи буде відкритий код цієї моделі? Було б круто бачити, як воно всередині зроблено
Та хоч би спершу зробили нормальні чат-боти у держпослугах, а потім за LLM бралися
Nastya Anisimova 20.06.2025, 12:52
давайте чесно — поки нема готового продукту, усе це слова
Поки що це звучить як прес-реліз, а не як робоча штука. Але хай, почекаємо релізу

Підписуйтеся на наші соцмережі

Інші матеріали

Стартап, який змінює правила гри на Amazon

Alina Shcherbyna 14 липня 2025 12:30

Самоаудит: як знайти та виправити помилки завчасно

Ірина Качмарчик 14 липня 2025 16:19

Про емоційний інтелект, вигорання та міленіалів в робочому колективі.

Роман Крючок 14 липня 2025 13:33

Про неформальні зв’язки, формування команди та здоровий колектив на віддаленій роботі

Роман Крючок 15 липня 2025 12:17

Як вибрати перекладацьку компанію для виходу на міжнародний ринок

Юлія Венцковська 15 липня 2025 11:17