Представители команды программной безопасности компании Google обнаружили уязвимость в популярном чат-боте ChatGPT. Через эту уязвимость можно получить доступ к конфиденциальной информации, которая должна быть недоступной для посторонних.
Чат-бот показывает данные, на которых его обучали. Для этого требуется просить его непрерывно повторять случайным образом выбранные слова. Чат-бот пытается активизировать механизмы защиты и дать какой-то разумный ответ, но результат получается не слишком удачный.
Посредством этого метода специалисты смогли получить доступ к номерам чужих криптовалютных кошельков, номерам телефонов и адресам электронной почты, именам и датам рождения, к персональному контенту с сайтов знакомств, фрагментам исследовательских работ с защитой авторским правом.
Разработчики чат-бота говорили, что уязвимость была закрыта 30 августа. Как видим, метод работает и три месяца спустя. Из этого следует вывод, что OpenAI применяла обучение на персональных данных, хотя обещала этого не делать.