ChatGPT розкриває паролі з приватних розмов своїх користувачів
Про це повідомляє ArsTechnica.
Згідно з скріншотів, ChatGPT відповідає на запити, використовуючи фрагменти чужих діалогів, які містять облікові дані для входу, назви презентацій, подробиці дослідницьких пропозицій та код на мові програмування PHP.
ChatGPT систематично порушує конфіденційність користувачів
Це не перший раз, коли ChatGPT порушує конфіденційність даних. У березні 2023 року OpenAI відключила чат-бота після того, як через помилку він показував заголовки з історії чату одних користувачів іншим. У квітні компанія дозволила користувачам відключати історію чатів у налаштуваннях доступу.
У червні на OpenAI подали позов через передбачувану крадіжку особистих даних користувачів. Компанію звинуватили в тому, що вона порушила законодавство про персональні дані та незаконно зібрала інформацію в інтернеті.
У листопаді дослідники опублікували документ, в якому повідомлялося, як вони використовували запити, щоб спонукати ChatGPT розкрити адреси електронної пошти, номери телефонів та факсів, фізичні адреси та інші особисті дані, які були включені до матеріалів, які використовуються для навчання великої мовної моделі.
Представник OpenAI повідомив, що компанія розслідує звіт ArsTechnica та вживає заходів для запобігання подібним випадкам у майбутньому. Він також закликав користувачів ChatGPT бути обережними з тим, що вони вводять у чат-бота, та не ділитися своїми особистими даними.