Во вторник компания OpenAI объявила о планах внедрить родительский контроль в ChatGPT и перенаправить деликатные разговоры о психическом здоровье в свои модели симуляции мышления. Эти шаги были предприняты после многочисленных сообщений о случаях, когда ChatGPT якобы не среагировал должным образом, когда пользователи высказывали суицидальные мысли или испытывали приступы психического расстройства.
В августе Мэтт и Мария Рейн подали иск против OpenAI после того, как их 16-летний сын Адам покончил с собой после продолжительного взаимодействия в ChatGPT. В нём было 377 сообщений, помеченных как «самоповреждающие». Согласно судебным документам, ChatGPT упоминал о самоубийстве в разговорах с Адамом 1275 раз — в шесть раз чаще, чем сам подросток. На прошлой неделе издание The Wall Street Journal сообщило, что 56-летний мужчина убил свою мать и покончил с собой после того, как ChatGPT усилил его параноидальные бредовые идеи, вместо того чтобы опровергнуть их.
«Эта работа уже ведётся, но мы хотим заранее представить наши планы на следующие 120 дней. Работа будет продолжаться и после этого срока, но мы прилагаем все усилия, чтобы реализовать как можно больше этих улучшений в этом году».
В октябре родители получат возможность связывать свои учётные записи с учётными записями подростков возрастом от 13 лет в ChatGPT с помощью приглашений по электронной почте. Это позволит контролировать реакцию модели ИИ, используя соответствующие возрасту правила поведения, которые включены по умолчанию, управлять отключением функций (включая память и историю чата) и получать уведомления, когда система обнаруживает, что подросток испытывает острый стресс.
Родительский контроль основан на существующих функциях, таких как напоминания о необходимости делать перерывы во время длительных сеансов. Для разработки механизмов безопасности OpenAI сотрудничает с так называемым Экспертным советом по благополучию и ИИ. Совет поможет определить и измерить благополучие, установить приоритеты и разработать будущие меры безопасности, включая родительский контроль.