Перейти к содержанию

Рекомендуемые сообщения

Опубликовано

Дипфейки — нежелательное следствие достижений в сфере искусственного интеллекта. Популярность поддельного медиаконтента, сгенерированного алгоритмами машинного обучения, в последние годы сильно выросла. В докладе Losing our reality («Мы теряем реальность») Алиссы Миллер (Alyssa Miller) на конференции RSA 2020 приведены размышления, почему дипфейки пора рассматривать как угрозу бизнесу и как компаниям минимизировать ущерб от информационных атак с использованием этой технологии.

Как создают дипфейки
 
Для начала разберемся, как делают подобные видео. Чаще всего для создания дипфейков используют так называемые генеративно-состязательные сети (generative adversarial network, или GAN). Алгоритм GAN состоит из двух нейронных сетей, соревнующихся друг с другом. На этапе подготовки обе сети обучаются на реальных изображениях. После этого начинается состязательная часть: одна сеть генерирует картинки (она называется генеративной), а другая пытается определить, подлинные они или нет (эта сеть называется дискриминативной).
После этого обе сети учатся на полученных результатах и с каждым циклом все лучше справляются со своими задачами.
Спустя, скажем, миллион повторов генеративная сеть сможет создавать такие фейковые изображения, которые другая нейронная сеть с тем же уровнем развития будет не способна отличить от подлинных.
Вообще говоря, у этого метода много по-настоящему полезных применений. В зависимости от того, какие данные используются на этапе подготовки, генеративная сеть учится создавать определенные виды изображений.
В случае дипфейков алгоритм обучается на фотографиях настоящих людей. В результате создается сеть, способная генерировать неограниченное количество поддельных, но очень убедительно выглядящих изображений того или иного человека. Остается лишь склеить эти отдельные кадры в видео — и дипфейк готов. Аналогичные методы позволяют создавать фейковое аудио — судя по всему, этот способ обмана уже используют онлайн-мошенники.
 
Читать далее >>

Пожалуйста, войдите, чтобы комментировать

Вы сможете оставить комментарий после входа в



Войти
×
×
  • Создать...