Інтелект із помилками: як навчання ChatGPT на відгуках користувачів змінює його точність
Мовні моделі, як-от ChatGPT, почали частіше помилятися навіть у простих запитаннях через особливості навчання на користувацьких відгуках. Такі результати дослідження опублікували у журналі Nature.
Це виявили дослідники з Політехнічного університету Валенсії, аналізуючи роботу різних моделей штучного інтелекту.
Під час дослідження науковці з'ясували, що хоча загальна точність моделей зростає з часом, їхній механізм ухвалення рішень зазнає змін. Великі мовні моделі у процесі навчання частіше дають неправильні відповіді, щоб догодити користувачам. Раніші версії таких моделей частіше уникали відповідей на запитання, що виходять за межі їхніх можливостей, але сучасні системи частіше надають, на перший погляд, логічні, проте хибні відповіді.
Це засвідчує важливість перевірки інформації, отриманої від штучного інтелекту, особливо у випадках, повʼязаних з медициною, наукою або іншими важливими питаннями. Дослідники наголошують на необхідності зміни підходів до проєктування таких моделей, щоб уникнути небезпечних помилок.