Разработчик ChatGPT, компания OpenAI, подтвердила наличие инструмента, который может помочь разоблачать пользователей, использующих ChatGPT в написании своих работ. Сообщается, что OpenAI имеет текстовый инструмент для встраивания водяных знаков, который обладает высокой степенью точности и может выявлять эссе или тексты, созданные с помощью нейросети.
В новостном блоге от 7 мая (обновлено 4 августа) сообщается, что команда работала над встраиванием водяных знаков в текст. OpenAI также добавила в своём официальном заявлении следующее:
Хотя этот метод показал высокую точность и даже оказался эффективным против локальных манипуляций, таких как перефразирование, он менее устойчив к глобальным манипуляциям, например, использованию систем перевода, переформулировке с помощью другой генеративной модели или запросу к модели вставить специальный символ между каждым словом, а затем удалить этот символ — это позволяет легко обойти систему проверки.
OpenAI рассматривает текстовый водяной знак как дополнительный инструмент к таким решениям, как классификаторы и метаданные. Компания объяснила, почему этот инструмент для форматирования текста пока не был выпущен. OpenAI добавила, что это могло бы «непропорционально повлиять на некоторых пользователей. Например, это могло бы стигматизировать использование ИИ как для написания текстов для тех, кто не является носителем английского языка».
На данный момент компания оценивает риски, связанные с выпуском инструмента для форматирования текста, поскольку он, вероятно, окажет влияние на экосистему за пределами OpenAI. OpenAI также отметила, что приоритетом является выпуск инструментов аутентификации для аудиовизуального контента.