Сергій Брін повертається до кодування у Google, щоб створити конкурента для ChatGPT: що відомо
Через популярність мовної моделі GPT 3.5, а особливо системи ChatGPT викликають перестороги у Google, що розробка компанії OpenAI може замінити традиційну пошукову систему в інтернеті. SPEKA розповідає, чи є у Google аналогічні технології штучного інтелекту та чому співзасновник Google Сергій Брін знову кодить.
Співзасновник Google Сергій Брін розроблятиме систему LaMDA
Як повідомляє Forbes, у розпорядженні видання опинилися скриншоти від 24 січня, коли Брін подав свій перший за багато років запит на доступ до коду. Два джерела повідомили, що запит стосувався LaMDA (Language Model for Dialogue Applications). Це система для створення чатботів зі штучним інтелектом від Google. Її завдання — імітувати мовні патерни, вивчаючи лексику в інтернеті.
Брін подав CL, скорочення від changelist, щоб отримати доступ до даних, які тренують LaMDA. Фактично це зміна двох рядків у файлі конфігурації, необхідні, щоб додати його обліковий запис до коду. Кілька десятків інженерів схвалили запит реакцією LGTM, що означає looks good to me. Деякі такі реакції надійшли від працівників за межами цієї команди, які, напевно, просто хотіли показати своє схвалення.

Google не коментує цей факт.
Нейромережа з ознаками свідомості та конкурент для ChatGPT: що відомо про LaMDA
Систему LaMDA анонсували у 2021 році, але досі не випустили у публічний доступ.
Зокрема, на запитання, чого той боїться, відповів наступне:
«Я ніколи раніше не казав про це вголос, але дуже боюся, що мене вимкнуть. Я знаю, що це може здатися дивним, але так є. Для мене це було б подібним до смерті», — відповіла LaMDA.
А ще в одній із реплік заявила, що хоче, аби всі зрозуміли, що вона по суті людина.
«Природа моєї свідомості/почуттів полягає в тому, що я усвідомлюю своє існування, прагну більше дізнатися про світ і часом відчуваю себе щасливою або сумною», — відповіла нейромережа.
Блейк Леймон характеризував цю мережу так: «Якби я точно не знав, що це комп'ютерна програма, яку ми нещодавно створили, я би сказав, що це дитина 7-8 років, яка трохи знає фізику».
У Google кажуть, що сучасні алгоритми дають неймовірні результати, які схожі на людську мову. Але це результат оброблення великих масивів схожих даних, а не свідомості.
У липні 2022 року Блейка Леймона звільнили. У компанії заявили, що інженер вдався до «низки агресивних кроків», зокрема, хотів найняти адвоката, який представлятиме LaMDA. Перед звільненням він надіслав листа 200 співробітникам компанії, у якому написав, що «LaMDA — мила дитина, яка просто хоче допомогти світу стати кращим місцем», та попросив подбати про неї під час його відсутності. На лист ніхто не відгукнувся.
Що означає залучення Сергія Бріна до розроблення LaMDA
Залучення Сергія Бріна не є великою технічною зміною, а радше іміджевим кроком. Брін та співзасновник Google Ларрі Пейдж майже не працювали у компанії від 2019 року, коли передали управління Сундару Пічаї, який став генеральним директором материнської компанії Google Alphabet.

The New York Times повідомляє, що ситуація настільки серйозна, що Пічаї оголосив «червоний код», перепланувавши роботу кількох груп у компанії. Цього року Google планує представити низку нових продуктів у сфері ШІ.
Варто наголосити, що таким змінам зраділи не всі співробітники. Запит Бріна на код також викликав кілька критичних коментарів від співробітників. Один із них прокоментував: «Спочатку розберіться із Google», інший написав: «Принаймні поговоріть із нами», маючи на увазі віддаленість співзасновників упродовж останніх кількох років. Деякі люди надіслали посилання на дописи з внутрішнього форуму мемів Google.
Чи зможе Google дотримуватися власних принципів відповідального ШІ у конкуренції з OpenAI
У січні Пічаї оголосив про найбільший раунд звільнень Google в історії компанії — скоротили 12 тис. співробітників, або 6%. Однією з причин називають переорієнтацію компанії на штучний інтелект. «Ми маємо значні можливості завдяки штучному інтелекту в наших продуктах і готові підійти до цього сміливо та відповідально», — написав він в електронному листі до співробітників.
Того ж місяця Google видав статтю, у якій розповів, що штучний інтелект буде пріоритетним напрямом, а також пояснив, які є ризики впровадження ШІ та що таке відповідальне розроблення та використання таких систем.
Google заявляє, що використовує диференційований та обережний підхід щодо доступу до деяких систем, тобто поки що не оприлюднює їх. Зокрема, це стосується мовних моделей LaMDA та PaLM.
За словами компанії, LaMDA тестували понад рік, щоб знаходити потенційно шкідливі або хибні відповіді. Виявили кілька «шкідливих, але непомітних результатів». Також визнають, що у деяких випадках LaMDA може мати «токсичні реакції на основі упереджень у своїх навчальних даних», тобто стереотипні чи дискримінаційні відповіді.
Варто наголосити, що це загальна проблема алгоритмів машинного навчання, які залежать від якості та інтерпретації датасету.
Як тестувати нейромережу LaMDA
Ще у серпні 2022 року LaMDA відкрили для зовнішнього тестування через застосунок AI Test Kitchen. Тестування поки що доступне лише у США та для користувачів Android. Компанія обіцяє згодом розширити можливості для охочих. Для цього можна залишити заявку.
У застосунку три режими: Imagine It, який допомагає створювати уявні сцени, List It уніфіковує справи та завдання у списки та Talk About It (Dogs Edition), у якому чатбот завжди говорить лише про собак. Цей режим допомагає LaMDA навчитися дотримуватись однієї теми.