Оглавление
В мире, где ваша сетевая идентичность напрямую связана с вами реальным, возможность полного копирования вызывает беспокойство. Такая возможность существует благодаря технологии Deepfake.
Данная технология становится всё более доступной и дешёвой. В чём её опасность? Как можно отличить подделку от реальности?
Что такое Deepfake
Deepfake представляет собой технологию, когда человек на фотографии или видео заменяется кем-то другим. Это слово представляет собой сочетание слов «глубокое обучение» (deep learning) и «фальшивка» (fake). Используются алгоритмы машинного обучения и искусственный интеллект для создания реалистичных, но ненастоящих изображений.
Проще всего поменять человеку лицо. В результате создаются фальшивые порнографические видео, новости, мистификации и т.д.
В чём опасность Deepfake?
Фальшивые изображения существовали всегда. Умение отличить правду от лжи является частью жизни. Особенно после появления цифровых мультимедиа. Технология Deepfake создаёт новые проблемы, поскольку у неё беспрецедентно высокий уровень имитации.
На одном из первых таких широко распространённых видео Джордан Пил заменён на Барака Обаму.
Это видео кажется довольно грубым, со странным голосом и зернистыми артефактами на лице. Тем не менее, оно служит примером технологии.
Что было бы, если бы в «Матрице» играл Уилл Смит? Это можно узнать.
Два этих видео нельзя назвать вредоносными, на их создание ушло сотни часов машинного обучения. Такая же технология доступна любому желающему, у кого достаточно времени и вычислительной мощи. Поначалу барьер вхождения в технологию Deepfake был достаточно высоким. Технологии развиваются и барьер значительно снизился, из-за чего возможности создавать подделки попали в руки злоумышленников.
Прежде чем приступать к неприятной части, посмотрим как Сильвестр Сталлоне меняет Маколей Калкина в фильме «Один дома».
Создание фальшивой порнографии со знаменитостями
Одна из главных угроз технологии Deepfake заключается в создании фальшивых порнографических материалов. Существуют десятки тысяч подобных видеороликов с известными людьми.
Алгоритм машинного обучения заменяет лицо на видео на лицо знаменитости. Такие видео есть на сайтах для взрослых.
Эти сайты никак не борются с подобными подделками. «Если нет серьёзной причины фильтровать подобные видео, этого не случится», говорит генеральный директор Sensity Джорджио Патрини. Эта фирма занимается распознаванием фальшивок. «Любой желающий может загружать видео подобного рода без последствий».
Такие видеоролики можно считать спекулятивными и далеко не такими невинными, как могут думать их создатели.
Создание фальшивой порнографии с обычными людьми
Что может быть хуже, чем создавать фальшивые изображения знаменитостей? Создавать порнографию с обычными ничего не подозревающими женщинами. Исследование Sensity обнаружило бот в мессенджере Telegram, который создал более 100000 фальшивых изображений обнажённых женщин. Многие фотографии взяты из социальных сетей, на них есть друзья, жёны, матери и т.д.
Бот является шагом вперёд в технологии Deepfake. Загрузчику изображений не нужны знания о машинном обучении и ИИ. Это автоматизированный процесс, в основе которого лежит исходное изображение. Бот работает только с изображением женщин, платная подписка с возможностью использовать больше изображений и убрать водяные знаки очень дешёвая.
Let's be real: The drivers of this kind of AI research are almost all men. Its victims are almost all women. Would they "be so cavalier if that bad shit was happening to them, as opposed to some woman down the street?" https://t.co/d3rbIb9g5F
— Drew Harwell (@drewharwell) October 20, 2020
Подобные фальшивые изображения аморальны и непристойны. Они могут оказаться в руках мужей, партнёров, членов семьи, коллег, начальства, что может губительно сказаться на личной и рабочей жизни. Такие изображения создают возможности для вымогательства и шантажа.
Размещение Deepfake в Telegram создаёт ещё одну проблему. Этот мессенджера делает акцент на конфиденциальность и не особо взаимодействует со своими пользователями. В нём есть политика удаления порнографических ботов, но пока этого не произошло.
Фальшивые материалы
Мы уже говорили о Джордане Пиле и Обаме. На следующем видео Джордан Пил предупреждает об опасностях Deepfake. Одна из главных проблем в том, что публикация подобных фото и видео может стать причиной трагедий в жизни пострадавших.
В самом радикальном случае такое видео может привести к войне между странами. Могут быть и другие крупные последствия. Например, фальшивое видео с крупным руководителем корпорации или банка показывающее его делающим ложное заявление. Это может привести к падению фондового рынка. Люди могут поверить в это видео и последствия будут отрицательными.
Важным параметром является объём. Фальшивый контент становится всё дешевле и за счёт этого более распространённым. В результате может появляться большое количество контента с одним и тем же человеком, где он показан в разных местах, стилях и т.д. Это может делаться, чтобы придать лжи достоверность.
Отрицание реальных материалов
Контент становится чрезвычайно реалистичным. Люди могут начать задавать вопросы, реальное видео или нет, даже если оно на самом деле реальное.
Если кто-то совершит преступление и его засняли на видео, можно сказать, что это фальшивое видео и оно не может служить доказательством.
Таким образом, это работает в обе стороны — фальшивые видео выдают себя за реальные, а реальные могут назвать фальшивыми.
Фейки лидеров и социальных контактов
Уже были случаи публикации материалов от имени лидеров в различных областях. В социальных сетях вроде LinkedIn и Twitter создают профили людей, якобы занимающих высокие посты в важных организациях. На самом деле этих людей не существует.
Такая проблема не связана исключительно с Deepfake. С начала времен правительства, шпионские сети и корпорации использовали фальшивые профили и персоны для сбора информации, продвижения своих целей и манипуляций.
Фишинг, социальная инженерия и другие преступления
Социальная инженерия уже давно является проблемой информационной безопасности. Люди хотят доверять другим людям, это в природе человека. Из-за этого могут быть проблемы в системах безопасности, кража данных и т.д. Социальная инженерия часто требует персональных контактов, будь то по телефону, видеозвонкам, в переписке и т.д.
Предположим, кто-то может использовать технологию Deepfake и выдать себя за директора, чтобы получить доступ к кодам безопасности и прочей конфиденциальной информации. Это может привести к потере ценных данных.
Как найти и распознать Deepfake
Качество Deepfake растёт и вместе с ним растёт сложность распознавания подделок. Раньше подсказки были простые: размытое изображение, повреждения и артефакты на видео, прочие несовершенства. Теперь подобные несовершенства встречаются редко.
Нет идеального способа распознать ложный контент, но можно дать подсказки:
- Детали. Хотя технология Deepfake стало очень качественной, проблемные места остаются. Детализация видео, движение волос, глаз, структура щёк и движение во время речи, неестественные выражения лица. Движение глаз может сказать о многом. Хотя технология сейчас позволяет моргать, проблема с движениями глаз остаётся.
- Эмоции. С деталями связаны эмоции. Если кто-то делает серьёзное заявление, его лицо должно отражать широкий диапазон эмоций. Технология не способна обеспечить такую эмоциональную глубину.
- Нестабильность. Качество видео сейчас высокое как никогда. Множество смартфонов умеют записывать видео 4К. Если политический лидер делает заявление, он находится в комнате с многочисленными записывающими устройствами. Низкое качество картинки и звука может выдать фальшивку.
- Источник. Появляется ли видео на проверенной платформе? Социальные сети используют подтверждение для проверки того, что всемирно известные люди не подделываются. Конечно, в таких системах проверки могут быть изъяны. Проверка того, откуда загружается видео, помогает понять, настоящее оно или нет. Можно попробовать выполнить обратный поиск по изображению и узнать, где в интернете эти изображения могли взять.
Инструменты для обнаружения и предотвращения Deepfake
Пока одни распространяют фальшивки, другие борются с ними. Несколько крупных технологических компаний разрабатывают инструменты для обнаружения Deepfake, а другие платформы блокируют фальшивки.
Например, инструмент обнаружения Microsoft Video Authenticator выполняет анализ за несколько секунд и информирует пользователя о достоверности материала. Adobe позволяет поставить цифровую подпись для защиты от манипуляций.
Microsoft's Video Authenticator app will spot deepfakes, quickly analyzing featureshttps://t.co/dFQBclXJgL
— Gavin Phillips (@GavinSpavin) October 26, 2020
Платформы вроде Facebook и Twitter банят вредоносный контент подобного рода, а Google работает с инструментами анализа и преобразования текста в речь для противостояния фальшивому аудио.
Deepfake наступает и становится всё лучше
С момента повсеместного распространения Deepfake в 2018 году главное применение технологии состоит в оскорблении женщин. Технология применяется для эксплуатации, манипулирования и унижения женщин по всему миру.
В будущем эти проблемы наверняка станут ещё более распространёнными. Подобные технологии несут угрозу для общества и пока есть мало ресурсов для противостояния им.
1 коммент
Напишите пожалуйста подробную статью со создании deepfake`ов, очень хочется попробовать самому!