Упс! Не вдала спроба:(
Будь ласка, спробуйте ще раз.

Створення відео із ШІ. Sora — прорив у нейромережах від OpenAI

Анна Нагорна
Анна Нагорна
16 лютого 2024 4 хвилин читання

15 лютого компанія OpenAI, розробник ChatGPT та DALL-E, презентувала нову систему штучного інтелекту Sora, яка створює реалістичні відео тривалістю до однієї хвилини на основі тестових запитів користувачів. І вони виглядають приголомшливо.

Sora вміє генерувати складні сцени з кількома персонажами, точно передавати рухи об’єктів та малювати деталізоване тло. Готові відео видаються у високій якості 1080p та виглядають не гірше ніж гра Death Stranding чи сцена з останнього фільму Star Wars.

Можливості Sora

Новий штучний інтелект майже ідеально малює тварин і людей, а також уміє зображати переконливі емоції на обличчях персонажів. За допомогою Sora можна створювати сінематики з різними ракурсами та рухом камери. Фізика об’єктів, симуляція рідин та деталізація текстур — усе це також на високому рівні.

За допомогою Sora можна:

  • генерувати відео з текстових запитів;
  • анімувати статичні зображення;
  • змінювати та покращувати наявні відео. 

Нейромережа глибоко розуміє мову, що дозволяє їй з високою точністю інтерпретувати запити користувачів. Вона розуміє не лише те, що просять зобразити у промпті, але й те, як ці об’єкти взаємодіють у нашому фізичному світі.

Слабкості відеонейронки

Хоча ШІ-відео від Sora приголомшують точністю відтворення, модель має певні слабкості, розповіли в OpenAI. Наприклад, люди та тварини можуть з'являтися «з повітря» та виконувати непослідовні, нелогічні дії.

Нейромережа може плутати просторові та часові деталі промпту, як-от ліворуч та праворуч, послідовність подій тощо. Sora також може мати проблеми з точним моделюванням фізики складних сцен і не розуміти зв’язків причини та наслідку. 

Наприклад, людина у відео може відкусити печиво, але після цього на печиві може не залишитися сліду від укусу.
OpenAI

Як користуватися Sora

Щоб отримати ШІ-згенероване відео у Sora, потрібно прописати чіткий промпт — так само, як і для роботи з іншим продуктом від OpenAI, генератором зображень з тексту DALL-E. Зазвичай це одне-два речення, в яких необхідно описати те, що має відбуватися на відео, та вказати деталі, стиль, кольори, кількість об’єктів чи персонажів тощо. 

Приклад промпту для створення трейлера фантастичного фільму Приклад промпту для створення трейлера фантастичного фільму

Поки що більшість користувачів не зможуть протестувати новий відео-ШІ. Гендиректор OpenAI Сем Альтман написав у соцмережі X, що з міркувань безпеки Sora спочатку буде доступна для обмеженої кількості користувачів: експертів, креаторів та дизайнерів.

Ризики нового ШІ

Перед тим як зробити Sora доступною для широкої аудиторії, OpenAI планує вжити низку безпекових заходів. Компанія працює з експертами у галузях дезінформації та інформаційної гігієни, які тестують модель на безпекові ризики. Також OpenAI створює інструменти, що допоможуть виявляти ШІ-контент, згенерований Sora.

До розмов про те, що ШІ-згенерований контент здатний поширювати дезінформацію, можна ставитися по-різному. У дискусії про нову нейромережу в Х один із користувачів запостив документальне відео «Невідомий бунтар», де чоловік наодинці стримує колону танків під час студентських заворушень у Китаї у червні 1989-го, та пожартував, що нібито це згенерувала Sora.

Інший користувач відповів йому: «Можливо, майбутні покоління будуть думати, що кадри Хіросіми та Нагасакі також є ШІ-згенерованими».

50 UAH 150 UAH 500 UAH 1000 UAH 3000 UAH 5000 UAH
0
Прокоментувати
Інші матеріали

Хто та скільки заробляє на штучному інтелекті

Олександр Тартачний 18 годин тому

Як використовувати ChatGPT у повсякденному житті?

Владислав Миронович 20 квітня 2024 11:00

AI несеться: роботи-футболісти, партнерство OpenAI з Adobe та багато нових релізів

Кирило Чеботарьов 19 квітня 2024 17:00

«Варто більше фокусуватися на прибутковості, ніж на капіталізації». Інтерв’ю із CEO Kiss My Apps Дмитром Лолою

Анна Сергієнко 18 квітня 2024 17:53

Майбутнє дейтингу — «Тіндер» для знайомств із ШІ-моделями

Сергій Коноплицький 17 квітня 2024 13:41