Технология «дипфейк» – это тип искусственного интеллекта, используемый для создания убедительных поддельных изображений, видео и аудиозаписей. Термин описывает как саму технологию, так и полученный фальшивый контент и является словослиянием из слов «deep learning» (глубокое обучение) и «fake» (подделка).

Дипфейки часто преобразуют существующий исходный контент, где один человек заменяется другим. Они также создают полностью оригинальный контент, в котором человек изображается делающим или говорящим то, чего он не делал и не говорил.

Самая большая опасность, которую несут дипфейки, заключается в их способности распространять ложную информацию, которая, как кажется, исходит из надежных источников. Несмотря на то, что дипфейки представляют собой серьезную угрозу, у них есть и законное применение, например, в озвучивании видеоигр и развлекательном контенте, а также в приложениях для поддержки клиентов и ответа на звонки, таких как переадресация и услуги секретаря.

Как работают дипфейки?

Дипфейки – это не отредактированные или отфотошопленные видео или изображения. На самом деле они создаются с помощью специализированных алгоритмов, которые смешивают существующие и новые кадры. Например, тонкие черты лица людей на изображениях анализируются с помощью машинного обучения (ML), чтобы манипулировать ими в контексте других видео.

Дипфейки использует два алгоритма – генератор и дискриминатор – для создания и уточнения поддельного контента. Генератор формирует обучающий набор данных на основе желаемых выходных данных, создавая исходный фальшивый цифровой контент, в то время как дискриминатор анализирует, насколько реалистичной или фальшивой является исходная версия контента. Этот процесс повторяется, что позволяет генератору улучшить качество создания реалистичного контента, а дискриминатору – стать более опытным в выявлении недостатков, которые генератор должен исправить.

Сочетание алгоритмов генератора и дискриминатора создает генеративно-состязательную сеть (GAN). GAN использует глубокое обучение для распознавания паттернов на реальных изображениях, а затем использует эти паттерны для создания подделок. При создании глубоко поддельной фотографии система GAN просматривает фотографии цели с разных ракурсов, чтобы уловить все детали и перспективы. При создании фальшивого видео GAN просматривает видео с разных ракурсов и анализирует поведение, движения и речевые паттерны. Затем эта информация многократно прогоняется через дискриминатор для точной настройки реалистичности конечного изображения или видео.

Видео дипфейк создаются одним из двух способов. Они могут использовать оригинальный видеоисточник объекта, где человека заставляют говорить и делать то, чего он никогда не делал; или же они могут подменить лицо человека на видео с другим человеком, что также известно как подмена лица.

Ниже описаны некоторые специфические подходы к созданию дипфейков:

  • Фальсификация исходного видео. При работе с исходным видео автокодировщик дипфейков на основе нейронной сети анализирует контент, чтобы понять соответствующие атрибуты объекта, такие как выражение лица и язык тела. Затем он накладывает эти характеристики на исходное видео. Этот автокодер включает в себя кодер, который кодирует соответствующие атрибуты, и декодер, который накладывает эти атрибуты на целевое видео.
  • Аудиоподделки. Для аудиоподделок GAN клонирует аудиозапись голоса человека, создает модель на основе голосовых паттернов и использует эту модель ИИ, чтобы заставить голос говорить все, что захочет создатель. Разработчики видеоигр часто используют эту технику.
  • Синхронизация губ. Синхронизация губ – еще одна распространенная техника, используемая в дипфейках. Здесь дипфейк накладывает запись голоса на видео, создавая впечатление, что человек на видео произносит слова в записи. Если аудиозапись сама по себе является дипфейком, то видео добавляет дополнительный слой обмана. Эта техника поддерживается рекуррентными нейронными сетями.

Технологии, необходимые для разработки дипфейков

Разработка дипфейков становится все проще, точнее и распространеннее по мере развития и совершенствования следующих технологий:

  • Технология нейронных сетей GAN использует алгоритмы генератора и дискриминатора для разработки всего контента дипфейк.
  • Свёрточные нейронные сети (CNN) анализируют паттерны в визуальных данных. CNN используются для распознавания лиц и отслеживания движений.
  • Автокодировщики – это нейросетевая технология, которая определяет релевантные атрибуты объекта, такие как выражения лица и движения тела, а затем накладывает эти атрибуты на исходное видео.
  • Обработка естественного языка используется для создания глубоко подделанного аудио. Алгоритмы NLP анализируют атрибуты речи цели, а затем генерируют оригинальный текст, используя эти атрибуты.
  • Высокопроизводительные вычисления – это тип вычислений, который обеспечивает значительную вычислительную мощность, необходимую для дипфейков.
  • Программное обеспечение для редактирования видео не всегда основано на ИИ, но в него часто интегрируются технологии ИИ для доработки выходных данных и внесения корректировок, повышающих реалистичность.

Согласно отчету Министерства внутренней безопасности США «Возрастающая угроза поддельных личностей», для создания дипфейков за считанные секунды обычно используется несколько инструментов искусственного интеллекта. К ним относятся Deep Art Effects, Deepswap, Deep Video Portraits, FaceApp, FaceMagic, MyHeritage, Wav2Lip, Wombo и Zao.

Gyan Management Journal также отметил несколько приложений для создания дипфейков, таких как Datagrid, позволяющее создавать персоны с нуля, и Impressions, настольное приложение, предназначенное для создания видеороликов знаменитостей с помощью мобильных телефонов.

Как обычно используются дипфейки?

Использование дипфейков существенно различается. К положительным и отрицательным способам использования дипфейков можно отнести следующие:

  • Искусство. Дипфейки используются для создания новой музыки на основе существующих работ артиста.
  • Шантаж и нанесение ущерба репутации. В качестве примера можно привести ситуацию, когда объект съемки попадает в незаконную, неуместную или иную компрометирующую ситуацию, например, лжет публике, совершает откровенные сексуальные действия или принимает наркотики. Такие видео используются для вымогательства, подрыва репутации, мести или просто киберзапугивания. Чаще всего для шантажа или мести используется дипфейк-порно, также известное как порно из мести.
  • Службы ответа на звонки. Эти службы используют дипфейк для предоставления персонализированных ответов на запросы звонящих, которые включают переадресацию вызовов и другие услуги секретаря.
  • Телефонная поддержка клиентов. Эти службы используют фальшивые голоса для выполнения простых задач, таких как проверка баланса счета или подача жалобы.
  • Развлечения. Голливудские фильмы и видеоигры клонируют и манипулируют голосами актеров для определенных сцен. Развлекательные индустрии используют эту технологию, когда сложно снять сцену, на постпродакшне, когда актер уже не может присутствовать на съемочной площадке, чтобы записать свой голос, или чтобы сэкономить время актера и съемочной группы. Дипфейки также используются для сатиры и пародийного контента, когда зрители понимают, что видео не настоящее, но наслаждаются юмористической ситуацией, которую создает дипфейк. Примером может служить дипфейк 2023 года с Дуэйном «Скалой» Джонсоном в роли Доры-исследователя.
  • Ложные доказательства. Речь идет о создании ложных изображений или аудиозаписей, которые могут быть использованы в качестве доказательств вины или невиновности в судебном деле.
  • Недорогие видеокампании. Маркетологи, использующие дипфейки, могут сократить расходы на видеокампании, лицензируя сходство актера и используя существующие цифровые записи вместе с диалогами сценария для создания нового контента, не нуждаясь в актерах вживую.
  • Мошенничество. Дипфейки используются для выдачи себя за человека с целью получения персональной информации, такой как банковские счета и номера кредитных карт. Иногда они могут выдавать себя за руководителей компаний или других сотрудников, имеющих полномочия для доступа к конфиденциальной информации, что представляет собой серьезную угрозу кибербезопасности.
  • Гиперперперсонализация и инклюзивность. Технология дипфейк повышает персонализацию бренда, корректируя такие элементы, как этническая принадлежность и цвет кожи, чтобы лучше отразить различные демографические характеристики клиентов. Это используется для повышения инклюзивности и расширения охвата кампаний.
  • Дезинформация и политические манипуляции. Поддельные видеоролики с политиками или доверенными источниками используются для того, чтобы изменить общественное мнение и, как в случае с подделкой президента Украины Владимира Зеленского, внести сумятицу в ход военных действий. Иногда это называют распространением фальшивых новостей.
  • Манипулирование акциями. Поддельные материалы дипфейк используются для того, чтобы повлиять на курс акций компании. Например, фальшивое видео с генеральным директором, делающим порочащие заявления о своей компании, может снизить ее курс акций. Поддельное видео о технологическом прорыве или запуске продукта может повысить курс акций компании.
  • Текстовые сообщения. В отчете Министерства внутренней безопасности США «Возрастающая угроза дипфейка личных данных» текстовые сообщения упоминаются в качестве одного из будущих вариантов использования технологии дипфейка. Согласно отчету, злоумышленники могут использовать методы дипфейка для копирования стиля текстовых сообщений пользователя.
  • Образование. Образовательные платформы также используют технологию дипфейк для разработки ИИ-репетиторов, предлагающих индивидуальную поддержку студентам. Например, Claude, образовательный ИИ-помощник от Anthropic, отвечает на вопросы студентов, разъясняет концепции и выявляет пробелы в понимании.

Законны ли дипфейки?

Дипфейки в целом законны, и правоохранительные органы мало что могут с ними поделать, несмотря на серьезную угрозу, которую они представляют. Дипфейки являются незаконными только в том случае, если они нарушают существующие законы, такие как детская порнография, диффамация или язык вражды.

Отсутствие законов против дипфейков объясняется тем, что большинство людей не знают об этой технологии, ее использовании и опасностях. Из-за этого в большинстве случаев жертвы не получают защиты по закону.

Тем не менее, в последнее время были приняты некоторые законодательные меры, которые, в случае их принятия, будут считать чрезвычайно злонамеренные дипфейки нелегальными и дадут основания для судебных действий против них. К ним относятся следующие заметные законодательные акты:

  • Закон DEFIANCE. Закон «О пресечении явных поддельных изображений и правок без согласия» (DEFIANCE), если он будет принят, станет первым законом, защищающим жертв дипфейков. Он позволит жертвам подавать в суд на создателей фейков, если они знали и безрассудно проигнорировали тот факт, что жертва не давала согласия на их создание.
  • Закон о предотвращении подделок интимных изображений. В мае 2023 года конгрессмен Джо Морелль представил закон о предотвращении подделок интимных изображений. Этот законопроект направлен на введение уголовной ответственности за обмен интимными изображениями без согласия, а также на защиту людей от несанкционированного создания и распространения интимных изображений с цифровыми манипуляциями.
  • Закон «Убрать это». Закон о средствах борьбы с известной эксплуатацией путем обездвиживания технологических подделок на веб-сайтах и в сетях (Take It Down Act), автором которого является сенатор Тед Круз, предусматривает уголовную ответственность за публикацию или угрозу публикации порно из мести. Он также требует, чтобы платформы социальных сетей разработали процесс удаления поддельных изображений в течение 48 часов после получения обоснованного запроса от жертвы.
  • Закон об ответственности за дипфейки. Конгрессмен Иветта Кларк и конгрессмен Гленн Иви представили в сентябре 2023 года Закон об ответственности за дипфейки, который обязывает создателей ставить цифровые водяные знаки на фальшивые материалы и делает преступлением неспособность выявить вредоносные дипфейки, включая те, которые изображают сексуальный контент, преступные действия, подстрекательство к насилию и иностранное вмешательство в выборы.

Чем опасны дипфейки?

Несмотря на то, что дипфейки в значительной степени легальны, они представляют собой серьезную опасность, в том числе следующую:

  • Шантаж и нанесение репутационного ущерба, что ставит цели в юридически компрометирующие ситуации.
  • Политическая дезинформация, например, использование угрожающих субъектов национальных государств в неблаговидных целях.
  • Вмешательство в выборы, например создание поддельных видеороликов о кандидатах.
  • Манипуляции с акциями, когда поддельный контент создается для влияния на цены акций.
  • Мошенничество, когда за человека выдают себя, чтобы украсть финансовые счета и другие PII.
  • Технология дипфейк может способствовать неэтичным действиям, таким как создание порно из мести, когда женщины страдают в непропорционально большей степени.
  • Повышение осведомленности и просвещение людей о подделках может подорвать доверие к подлинным видео, что приведет к интеллектуальному кризису в области видеодоказательств.
  • Дипфейки могут использоваться для обмана мер безопасности или получения несанкционированного доступа к системам. Например, дипфейк может обойти системы распознавания лиц, используемые для аутентификации или контроля доступа.

Методы обнаружения дипфейков

Существует несколько лучших методов обнаружения атак дипфейк. Ниже перечислены признаки возможного содержания дипфейк:

  • Необычное или неестественное положение лица.
  • Неестественные движения лица или тела.
  • Неестественные цвета.
  • Видеоролики, которые выглядят странно при увеличении или масштабировании.
  • Непоследовательный звук.
  • Люди, которые не моргают.
  • Крошечные отклонения в отраженном свете в глазах объекта съемки.
  • Старение кожи не совпадает со старением волос и глаз.
  • Очки либо не дают бликов, либо дают их слишком много, и угол блика остается неизменным, несмотря на движения человека.

В текстовых дипфейках есть несколько признаков:

  • Опечатки.
  • Неестественно построенные предложения.
  • Подозрительные адреса электронной почты источника.
  • Фразы, не соответствующие предполагаемому отправителю.
  • Сообщения вне контекста, не имеющие отношения к какому-либо обсуждению, событию или вопросу.

Однако ИИ уверенно преодолевает некоторые из этих признаков, например, с помощью инструментов, поддерживающих естественное моргание и другие биометрические признаки.

Как защититься от дипфейков

Компании, организации и правительственные агентства, такие как Агентство перспективных оборонных исследовательских проектов Министерства обороны США, разрабатывают технологии для выявления и блокировки дипфейков. Некоторые компании, работающие в социальных сетях, используют технологию блокчейн для проверки источника видео и изображений, прежде чем допустить их на свои платформы. Таким образом, устанавливаются надежные источники и предотвращается появление дипфейков. Так, компании Meta и X, ранее известная как Twitter, запретили вредоносные дипфейки.

Многие организации предлагают программное обеспечение для защиты от дипфейков, в том числе следующие компании:

  • Adobe предлагает систему, позволяющую создателям прикреплять к видео и фотографиям подпись с подробным описанием их создания.
  • Intel FakeCatcher делает ставку на скорость и эффективность, анализируя тонкие физиологические детали, такие как пиксельные изменения в кровотоке, для достижения высокой точности обнаружения в режиме реального времени.
  • Microsoft предлагает программное обеспечение для обнаружения дипфейков на основе искусственного интеллекта, которое анализирует видео и фотографии и выдает оценку достоверности, показывающую, были ли эти материалы подвергнуты манипуляциям.
  • Operation Minerva использует каталоги ранее обнаруженных дипфейков, чтобы определить, является ли новое видео просто модификацией уже обнаруженной и получившей цифровой отпечаток подделки.
  • Sentinel – это облачное решение, которое позволяет в режиме реального времени обнаруживать дипфейки, используя различные технологии, включая проверку временной согласованности, анализ лицевых ориентиров и обнаружение мерцания для выявления манипуляций с медиа.

Заметные примеры дипфейков

Существует несколько ярких примеров дипфейков, в том числе следующие:

  • Основатель Facebook Марк Цукерберг стал жертвой дипфейк в 2019 году, в котором он хвастался тем, что Facebook «владеет» своими пользователями. Видео было призвано показать, как люди могут использовать социальные медиаплатформы, такие как Facebook, чтобы обманывать общественность.
  • Еще в 2020 году были высказаны опасения по поводу возможности вмешательства в выборы и предвыборной пропаганды. Президент США Джо Байден стал жертвой многочисленных дипфейков, показывающих его в преувеличенном состоянии когнитивного спада, призванных повлиять на президентские выборы.
  • Президенты Барак Обама и Дональд Трамп также стали жертвами фейковых видео, некоторые из которых распространяли дезинформацию, а некоторые были сатирическими и развлекательными. Во время российского вторжения в Украину в 2022 году на видео был изображен президент Украины Владимир Зеленский, который говорил своим войскам сдаться россиянам.
  • В начале 2024 года власти Гонконга заявили, что сотрудника финансовой службы многонациональной организации обманом заставили передать 25 миллионов долларов мошенникам, выдававшим себя за финансового директора компании, в ходе видеоконференции с использованием технологии дипфейк. По данным полиции, сотрудника обманом заставили вступить в видеозвонок с множеством других сотрудников, которые были дипфейком.
  • В TikTok есть аккаунт, полностью посвященный дипфейкам Тома Круза. Хотя в видеороликах @deeptomcruise все еще присутствует намек на «зловещую долину», его мастерское владение голосом и манерами актера, а также использование быстро развивающихся технологий позволили создать одни из самых убедительных примеров дипфейка.

История технологии ИИ-дипфейк

ИИ-дипфейк – это относительно новая технология, которая берет свое начало в манипулировании фотографиями с помощью таких программ, как Adobe Photoshop. Однако развитие технологии дипфейк можно отнести к 1990-м годам, когда исследователи из академических институтов начали изучать возможности использования искусственного интеллекта для обработки изображений.

К середине 2010-х годов дешевые вычислительные мощности, большие массивы данных, ИИ и технологии машинного обучения в совокупности позволили повысить сложность алгоритмов глубокого обучения.

В 2014 году GAN, технология, лежащая в основе дипфейков, была разработана исследователем из Монреальского университета Яном Гудфеллоу. В 2017 году анонимный пользователь Reddit под ником «deepfakes» начал публиковать видеоролики со знаменитостями в стиле дипфейк, а также инструмент GAN, который позволял пользователям менять лица в видео. Эти видео стали вирусными в интернете и социальных сетях.

Внезапная популярность контента дипфейк заставила такие технологические компании, как Facebook, Google и Microsoft, вложить средства в разработку инструментов для обнаружения дипфейков. Несмотря на усилия технологических компаний и правительств по борьбе с дипфейками и решению проблемы обнаружения фальшивок, технология продолжает развиваться и создавать созданные искусственным интеллектом изображения и видео, которые становятся все более убедительными.