Упс! Не вдала спроба:(
Будь ласка, спробуйте ще раз.

Техногіганти пообіцяли Джо Байдену створювати безпечний ШІ

Богдан Камінський
Богдан Камінський
21 липня 2023 2 хвилин читання

Сім провідних компаній США, що розробляють штучний інтелект, погодилися на добровільні гарантії щодо безпечного розвитку технології. Про це пише The New York Times.

Сім компаній — Amazon, Anthropic, Google, Inflection, Meta, Microsoft і OpenAI —  офіційно оголосять про свою прихильність новим стандартам на зустрічі з президентом США Джо Байденом у п'ятницю.

Представники Білого дому заявили, що адміністрація працює над виконавчим наказом, який підтримає розробку двопартійного законодавства щодо регулювання ШІ.

Зобов’язання, які взяли на себе розробники штучного інтелекту

У межах угоди компанії погодились:

  • тестувати безпеку своїх продуктів та обмінюватись інформацією про них з урядами та іншими сторонами;
  • використовувати позначки, які допоможуть користувачам зрозуміти, що контент згенерований ШІ;
  • публічно повідомляти про можливості та обмеження своїх систем, включно з ризиками для безпеки та упередженості.
  • розгортати передові інструменти штучного інтелекту для вирішення найбільших викликів суспільства, таких як лікування раку та боротьба зі зміною клімату;
  • проводити дослідження щодо ризиків упередженості, дискримінації та втручання в приватне життя;
Послужний список ШІ показує підступність і поширеність цих небезпек, і компанії зобов'язуються впроваджувати ШІ, які пом'якшують їх.
Адміністрація президента США Джо Байдена
0
Прокоментувати
Інші матеріали

«Блокнот» у Windows 11 отримає підрахунок символів

Богдан Камінський 10 годин тому

Американський регулятор перевірить співпрацю Microsoft та OpenAI

Богдан Камінський 11 годин тому

Уряди ЄС погодили правила регулювання систем ШІ

Юлія Мирська 9 грудня 2023 07:30

Google працює над проєктом Ellmann для розповіді історії життя користувачів

Артем Житкевич 9 грудня 2023 07:00

Регулятор Великобританії перевірить партнерство Microsoft та OpenAI

Артем Житкевич 8 грудня 2023 23:57