Откуда берется фейковый контент

6394

Как современные технологии способны автоматизировать фейки?

ФОТО: pixabay.com

Активные пользователи Сети заметили в последнее время, что в стране отмечается рост распространения заведомо ложной информации. К примеру, в социальных сетях появились отрывки из нескольких видео, где дело происходит в Алматы, закадровые описания к которым не соответствуют действительности. Ситуацию даже пришлось отдельно комментировать полиции города. Между тем, учитывая необходимость для СМИ, пользователей соц­сетей и мессенджеров соблюдать законодательство РК в условиях чрезвычайного положения, нелишним будет напомнить о том, откуда берется этот фейковый контент и как современные технологии способны автоматизировать, многократно усилить эффект от него.

Дипфейки – негативное следствие достижений в сфере искусственного интеллекта. Чаще всего для создания дипфейков (ложных изображений человека) используют так называемые генеративно-состязательные сети. На этапе подготовки две сети обучаются на реальных изображениях (которые вы так любите грузить во всевозможные тесты в Сети), после чего начинается состязательная часть: одна сеть генерирует картинки, а другая пытается определить, подлинные они или нет.

Спустя, скажем, миллион повторов генеративная сеть сможет создавать такие фейковые изображения, которые другая нейронная сеть с тем же уровнем развития будет неспособна отличить от подлинных. В результате создается сеть, способная генерировать неограниченное количество поддельных, но очень убедительно выглядящих изображений того или иного человека. Остается лишь склеить эти отдельные кадры в видео – и дипфейк готов. Аналогичные методы позволяют создавать фейковое аудио – судя по всему, этот способ обмана уже используют онлайн-мошенники.

Насколько убедительными стали дипфейки? Поначалу большинство видеороликов с дипфейками выглядели просто смехотворно. Но за несколько лет технология развилась настолько, что они стали пугающе убедительными. Один из ярких примеров 2018 года – поддельное видео с Бараком Обамой, в котором он рассказывал собственно о дипфейках и заодно бросил пару оскорблений в адрес действующего президента США. В середине 2019 года появилось короткое видео с поддельным Марком Цукербергом, который на удивление откровенно обрисовал текущее состояние дел с личными данными пользователей.

Как можно выявлять дипфейки? К примеру, анализ частоты морганий может помочь выявлять поддельные видео. Идея в том, что в большинстве случаев в открытом доступе есть не так уж много фотографий человека в момент моргания, так что нейронной сети просто не на чем учиться генерировать подобные кадры. Отметим, что люди в дипфейк-видео, доступных на момент публикации этой статьи, действительно моргали неправдоподобно редко. И даже если это не слишком бросалось в глаза при обычном просмотре, компьютерный анализ выявлял подделку. Также возможно искать артефакты искажения лица и несоответствия положений головы. Существует техника анализа выражений лица и мимики, характерных для конкретного человека.

Однако можно использовать другой подход – в частности, снижать ущерб от информационной атаки на компанию с помощью эффективных корпоративных коммуникаций. Для этого потребуется тщательно отслеживать публикуемые в Сети сведения, касающиеся вашей компании, и быть готовым контролировать ситуацию в случае дезинформации. Многие из этих предложений будут полезны и в случае других PR-катастроф:

• минимизируйте число каналов коммуникаций компании;

• организуйте согласованное распространение информации;

• разработайте план реагирования на дезинформацию (по аналогии с инцидентами безопасности);

• организуйте централизованный мониторинг каналов и отчетность;

• следите за новыми способами обнаружения дипфейков и методами борьбы с ними.

   Если вы обнаружили ошибку или опечатку, выделите фрагмент текста с ошибкой и нажмите CTRL+Enter

Орфографическая ошибка в тексте:

Отмена Отправить