Упс! Не вдала спроба:(
Будь ласка, спробуйте ще раз.

Web3 та ШІ: революція децентралізації в епоху інновацій

Іван Паскарь
Іван Паскарь Marketing and Operations Lead, Ukraine & CEE - Binance
18 грудня 2023 8 хвилин читання

У світі сучасних технологій два титани — штучний інтелект та блокчейн — стають архітекторами цифрової реальності майбутнього. Розвиток штучного інтелекту в Web2 був безсумнівним, про що свідчить пришвидшення інвестицій, здійснених цього року венчурними капіталістами. Від раунду фінансування Inflection AI у розмірі $1,3 млрд у червні 2023 року з інвестиціями Microsoft і Nvidia до конкурента OpenAI, компанії Anthropic, яка залучила $1,25 млрд від Amazon у вересні 2023-го.

Проте інтеграції та можливостям Web3 досі заважає громадський скептицизм. Чи може Web3 виступити каталізатором для подальшого розвитку штучного інтелекту? І якщо так, то яке місце посяде блокчейн у цьому симбіозі, чому саме він може стати ключовою ланкою в еволюції ШІ? І, найголовніше, чому власне інтеграція цих технологій може стати не просто новим словом в індустрії, а основою для створення інноваційного та відкритого майбутнього?

ШІ-інфраструктура та GPU Crunch

На сьогодні головною проблемою в галузі штучного інтелекту є так званий дефіцит GPU (графічних процесорів). Великі мовні моделі, як-от GPT-3.5, відкрили шлях до створення революційної програми нашого часу ChatGPT та подібних до неї. Вона стала лідером за швидкістю зростання аудиторії, сягнувши позначки у 100 мільйонів активних користувачів на місяць лише за шість тижнів, тоді як гігантам YouTube та Facebook для цього знадобилося більш ніж чотири роки. Це сприяло появі безлічі нових застосунків, які використовують моделі LLM, серед яких Midjourney, створений на основі StableLM від Stable Diffusion та PaLM2, який є основою для Google Bard, API, MakerSuite та Workspaces.

Deep learning  — це тривалий і високообчислювальний процес, що потребує величезних ресурсів. Що більше параметрів має LLM, то більше пам'яті GPU необхідно для їхнього оброблення. Якщо розмір моделі перевищує доступну пам'ять, настає момент, коли модель більше не може функціонувати. Лідери галузі, як-от OpenAI, також стикаються з браком GPU, що ускладнює розгортання їхніх мультимодальних моделей з більшою довжиною послідовностей (8k проти 32k). Через великий дефіцит чіпів застосування LLM у великих масштабах сягнуло своїх меж, що змушує стартапи у сфері ШІ змагатися за обчислювальну потужність GPU, аби отримати перевагу першопрохідця.

Рішення для GPU: централізовані та децентралізовані підходи

У галузі оброблення даних та штучного інтелекту GPU стають основоположними елементами прогресу, а стратегії їхнього використання швидко еволюціонують. Новітні централізовані рішення, як-от запуск Nvidia tensorRT-LLM у серпні 2023 року, який забезпечує оптимізований результат та покращену продуктивність, а також запуск Nvidia H200s у другому кварталі 2024 року, допоможуть усунути обмеження GPU. Більше того, традиційні майнінгові компанії, як-от CoreWeave та Lambda Labs, переорієнтовуються на надання обчислювальних хмарних сервісів з фокусом на GPU, встановлюючи ціну за оренду від $2 до $2,25 за годину. 

Водночас у сфері Web3 зростає інтерес до децентралізованих рішень, які можна порівняти з ринком Airbnb для GPU. Такі платформи не лише сприяють демократизації доступу до обчислювальних ресурсів, але й використовують стимули на блокчейні для залучення тих, хто має невикористані потужності GPU. Цей підхід дає змогу уникнути довгострокових зобов'язань, що є звичайною практикою при роботі з традиційними хмарними провайдерами, та пропонує більшу гнучкість для користувачів.

Однією з найбільш інноваційних концепцій у цій галузі є підхід Petals, що передбачає поділ моделі LLM на кілька рівнів, які розміщені на різних серверах, подібно до концепції шардингу. Користувачі можуть підключитися до мережі децентралізованим способом як клієнти і застосувати модель до своїх даних.

Водночас децентралізований GPU-рендеринг стає каталізатором для розширення можливостей 3D-моделювання, заснованого на AI, особливо в ігровій індустрії Web3, відкриваючи нові перспективи для творців контенту. 

Однак існує виклик, пов'язаний із такими мережами: потенційне уповільнення процесів машинного навчання через затримки у комунікації між обчислювальними пристроями різного типу. Ця проблема може стати каменем спотикання на шляху до оптимальної взаємодії та синергії в мережі, що, без сумніву, є одним із найбільш актуальних завдань для інженерів і розробників на сучасному етапі.

Децентралізовані дані

Навчальні дані служать початковим набором даних, який використовують для навчання програм машинного навчання розпізнавати шаблони або відповідності певним критеріям. Не менш важливими є дані для тестування чи валідації, які використовують для оцінювання точності моделі. Важливість валідаційних даних полягає у їхній незалежності: модель не повинна бути знайома з цими даними до процесу тестування, щоб забезпечити об'єктивність результатів.

Натепер тривають спроби створення ринків для джерел даних штучного інтелекту та маркування цих даних. Проте на цьому етапі розвитку ці вертикалі стикаються з низкою викликів, як-от необхідність проведення людської перевірки та сумніви щодо даних, які підтримують блокчейн.

Серед інноваційних рішень можна виділити так звані обчислювальні мережі SP (Special Purpose), розроблені спеціально для потреб моделей машинного навчання. Ці мережі, створені під конкретні завдання, часто мають архітектуру, що дозволяє об'єднати обчислювальні потужності в єдиний ресурс, що нагадує діяльність суперкомп’ютера. Ціна на ресурси у мережах SP регулюється через механізм, який управляється самою спільнотою, забезпечуючи гнучкість та адаптивність до потреб користувачів.

ZKML, або машинне навчання з нульовим розголошенням

2023-й справді став роком, коли LLM продемонстрували свою силу. Для того щоб блокчейн-проєкти могли повністю реалізувати потенціал штучного інтелекту, дуже важливо, щоб ці моделі запускалися у мережі. Однак виклики, пов’язані з обмеженнями та обчислювальними витратами, досі ускладнюють інтеграцію ШІ.

Але якщо було б можливо запускати LLM поза ланцюгом і результати їхньої роботи використовувати для ухвалення рішень і дій у мережі, при цьому надаючи докази того, що ці рішення ухвалюється моделлю ML AI, а не випадковими виходами? Саме це і є суть ZKML. З наближеним запуском GPT-5 від OpenAI та Llama3 від Meta LLM стають з дедалі більш розширеними можливостями. 

Удосконалення алгоритмів розширює сферу можливих застосувань (як-от цілісність моделей), за допомогою яких ZK-докази можуть бути використані для доведення, що один алгоритм ML використовується на даних різних користувачів однаково, щоб уникнути упереджень. Також з поширенням алгоритмічно згенерованих портретів і дипфейків ZK-докази можуть бути використані в Proof of Personhood для підтвердження унікальності особи без порушення її приватності.

Отже, інтеграція інфраструктури Web3 та штучного інтелекту постає захопливим рубежем технологічних інновацій, одночасно збільшуючи участь за допомогою токенізованих стимулів. Попри те що Web2 вже показав значний прогрес у галузі штучного інтелекту, взаємодія з Web3 є предметом досліджень. Синергія між Web3 та AI має великий потенціал, обіцяючи змінити технологічний ландшафт і підхід до інфраструктури штучного інтелекту. 

Якщо ви хочете поділитися з читачами SPEKA власним досвідом, розповісти свою історію чи опублікувати колонку на важливу для вас тему, долучайтеся. Відтепер ви можете зареєструватися на сайті SPEKA і самостійно опублікувати свій пост.
50 UAH 150 UAH 500 UAH 1000 UAH 3000 UAH 5000 UAH
0
Прокоментувати
Інші матеріали

Google допомагає постачальникам зменшити викиди завдяки новим енергетичним проєктам

Вікторія Рудзінська 23 години тому

Apple готується додати функції штучного інтелекту до Vision Pro

Вікторія Рудзінська 1 липня 2024 07:04

Білл Гейтс нагадав про надмірне споживання електроенергії ШІ

Олеся Дерзська 28 червня 2024 16:07

Бренд, побудований на провокації та сексуалізації: історія Playboy

Артем Беседа 27 червня 2024 17:41

Чи може сервісна економіка зробити світ багатим?

Олександр Тартачний 27 червня 2024 14:40