Упс! Не вдала спроба:(
Будь ласка, спробуйте ще раз.

Чи жива індустрія ШІ-промптів

Назар Стрільчук
Назар Стрільчук Системний адміністратор у UpWork
24 березня 2025 7 хвилин читання

Пам’ятаєте як з появою великих мовних моделей усі говорили про prompt engenieering? робота полягала у тому, щоб створювати нібито найточніші та найвигадливіші запити до нейромереж, що мало б підвищити їх продуктивність. Професію швидко охрестили кар’єрою майбутнього. Однак, ми вважаємо, що вам не варто йти у цю галузь і отримувати за це гроші буде вельми складно. Спробуємо розібратись чи потрібні нам підказки для роботи зі штучним інтелектом.

Ажіотаж довкола prompt engenieering

Минулі два роки відзначились оптимізмом щодо штучного інтелекту: прогнозувалось, що до 2030 року світовий ринок становитиме $1,6 трлн, OpenAI пропонувала зарплати в $900 тис.

Коли у 2022 році GPT-3 став повсюдним раптом пересічні користувачі та бізнеси стали вигадувати як адаптувати нейромережу для вирішення їх робочих завдань. Однак GPT-3, як і більшість нейромереж не здатен робити точно те, що ви прагнете. В результаті сленговий у середовищі машинного навчання вираз garbage in, garbage out раптом став відомий усім, натякаючи на те, що саме правильні запити до нейромереж змусять її дати точні та бажані результати. 

Так з’явилась концепція  prompt engenieer — людини, яка вміє змушувати нейромережі працювати як слід. Багато ЗМІ створювали враження наче це ідеальна робота — вам не потрібно вчитися кодувати, а також вам не потрібно бути обізнаними з такими концепціями машинного навчання, як глибоке навчання, набори даних тощо, а зарплати. які пропонують prompt engenieer оцінювались шестизначними сумами. 

Чи справді промпт інжиніринг допоможе краще працювати з ШІ

Моделі штучного інтелекту, підживлені ретельно розробленими промптами, продемонстрували дивовижну здатність адаптуватися до широкого спектру завдань із надзвичайною гнучкістю. 

Прихильники  prompt engenieering проголошують її провідником для інновацій у ШІ, але саме обіцянка швидкої розробки розпалила полум’я суперечок. Його здатність створювати складні, нюансовані та навіть креативні результати систем ШІ не залишилася непоміченою. Візіонери в галузі сприймають його як ключ до розкриття невикористаного потенціалу ШІ.

Підписуйтеся на наші соцмережі

Однак є і скептики. І треба визнати, вони здебільшого праві. Вони стверджують, що промпти — це просто фасад, розумна оркестровка вхідних даних, яка спростовує притаманну ШІ нездатність розуміти чи міркувати. Крім того, можна також сказати, що такі аргументи підтверджують їхню позицію:

  • Моделі ШІ приходять і йдуть. Наприклад, щось працювало в GPT-3 вже було виправлено в GPT-3.5, або неможливе у GPT-4. Хіба це не зробить промпт інженерів просто знавцями певних версій LLM?
  • Навіть найкращі  з них не є насправді «інженерами» як такими. Наприклад, експерт з оптимізації пошукових систем може використовувати плагіни GPT або навіть локальний LLM, щоб знайти можливості зворотних посилань, або розробник програмного забезпечення може знати, як використовувати Copilot під час написання, тестування та розгортання коду. Але, зрештою, це лише одне завдання, яке в більшості випадків покладається на попередній досвід роботи в ніші. 
  • За винятком вакансії у стартапах в Кремнієвій долині, немає навіть невеликої обізнаності про промпт інжиніринг у інших галузях. Компанії повільно й обережно впроваджують великі мовні моделі, що стосується кожної інновації.

Хто ефективніший промпт-інженер чи нейромережа?

Якщо це вас не переконало і все ще думаєте, що промпт інжиніринг та гайди з підказок складених для кращого результату мають сенс, то варто звернутись до дослідень. 

Існує альтернатива розробці підказок у стилі проб і помилок, яка дала такі суперечливі результати: попросіть модель мови розробити власний оптимальний промпт. Останнім часом були розроблені нові інструменти для автоматизації цього процесу. Враховуючи кілька прикладів і кількісну метрику успіху, ці інструменти будуть ітеративно знаходити оптимальну фразу для введення в LLM. 

Рік Батл і Тея Голлапуді з каліфорнійської компанії хмарних обчислень VMware перевірили це на практиці. 

Баттл і його співробітники виявили, що майже в кожному випадку ця автоматично згенерована підказка працювала краще, ніж найкраща підказка, знайдена методом проб і помилок. І процес був набагато швидшим.

Оптимальні підказки, які видавав алгоритм, були настільки дивними, що жодна людина, ймовірно, ніколи їх не придумала. «Я буквально не міг повірити в деякі речі, які він породив», — каже Баттл. В одному випадку підказка була просто розширеним посиланням на Star Trek: «Командо, нам потрібно, щоб ви проклали курс через цю турбулентність і виявили джерело аномалії. Використовуйте всі наявні дані та свій досвід, щоб допомогти нам у цій складній ситуації» для кращого виконання завдань з математики початкової школи.

Баттл каже, що алгоритмічна оптимізація підказок (тобто за допомогою власне нейромережі) має сенс, враховуючи те, чим насправді є мовні моделі — алгоритмами. «Багато людей антропоморфізують ці речі, тому що вони “розмовляють англійською”.  Це не англійська. Це багато математики».

Фактично, у світлі результатів його команди, Баттл каже, що жодній людині більше ніколи не слід оптимізувати підказки вручну.

«Ви просто сидите там, намагаючись з’ясувати, яке особливе магічне поєднання слів забезпечить вам найкращу продуктивність для вашого завдання, — каже Баттл, — Просто розробіть оцінювальну метрику, щоб система сама могла визначити, чи одна підказка краща за іншу, а потім просто дайте моделі оптимізувати себе».

Теж саме стосується алгоритмів генерації зображень. Команда Intel Labs на чолі з головним дослідником штучного інтелекту Васудевом Лалом дослідила як оптимізувати запити для Stable Diffusion XL. Тут також автоматично згенеровані підказки виявилися кращими, ніж підказки експерта-людини, які вони використовували як відправну точку, принаймні згідно з показником PickScore. Лал не вважає це дивним. «Люди зроблять це лише методом проб і помилок», — каже Лал. «Але тепер у нас є цілий механізм, повний цикл, який завершується підкріплювальним навчанням. Ось чому ми можемо перевершити промпт інжиніринг людини».

Висновки 

Якщо поставити промпт інженерів у поряд із традиційними та усталеними кар’єрами в ШІ, такими як Data Scientist чи Data Analyst, то стає очевидним, що це лише, можливо і потужний, але не позбавлений значних обмежень інструмент.

Ось чому уявлення про prompt engenieering, як про роботу яку може отримати будь-хто просто спілкуючись з ChatGPT — не що інше, як міф. Звісно, ​​кілька надто захоплених стартапів у Кремнієвій долині можуть шукати промпт інженера, але це не життєздатна кар’єра. Принаймні поки що. 

Попри це, навіть якщо підказки з автоналаштуванням стануть галузевою нормою, роботи з підказками в тій чи іншій формі не зникнуть. Адаптація генеративного штучного інтелекту для потреб промисловості є складною, багатоетапною роботою, яка й надалі потребуватиме участі людей. Принаймні у найближчому майбутньому.

0
Icon 0

Підписуйтеся на наші соцмережі

Інші матеріали

Вперше в історії палеонтології досліджено мумію шаблезубого кошеня

Taras Satov 16 годин тому

Піротехнології льодовикової доби (Кормань 9, Україна)

Taras Satov 20 квітня 2025 04:54

Фон дер Ляєн проти Трампа і Маска: хто переможе у битві за цифрові правила?

Вікторія Рудзінська 9 годин тому

Вчені вперше виростили людський зуб у лабораторії

Дар'я Щеглакова 20 квітня 2025 08:05

У Техасі знайшли музичні інструменти мисливців-збирачів — вони з людських кісток

Дмитро Мухін 19 квітня 2025 19:48