Откуда берется фейковый контент
Как современные технологии способны автоматизировать фейки?
Активные пользователи Сети заметили в последнее время, что в стране отмечается рост распространения заведомо ложной информации. К примеру, в социальных сетях появились отрывки из нескольких видео, где дело происходит в Алматы, закадровые описания к которым не соответствуют действительности. Ситуацию даже пришлось отдельно комментировать полиции города. Между тем, учитывая необходимость для СМИ, пользователей соцсетей и мессенджеров соблюдать законодательство РК в условиях чрезвычайного положения, нелишним будет напомнить о том, откуда берется этот фейковый контент и как современные технологии способны автоматизировать, многократно усилить эффект от него.
Казахстанцы могут выиграть $200 тыс. в конкурсе программистов
Талшын Болатова и Болат Ходжаев стали соавторами международного проекта Cov... →
Дипфейки – негативное следствие достижений в сфере искусственного интеллекта. Чаще всего для создания дипфейков (ложных изображений человека) используют так называемые генеративно-состязательные сети. На этапе подготовки две сети обучаются на реальных изображениях (которые вы так любите грузить во всевозможные тесты в Сети), после чего начинается состязательная часть: одна сеть генерирует картинки, а другая пытается определить, подлинные они или нет.
Спустя, скажем, миллион повторов генеративная сеть сможет создавать такие фейковые изображения, которые другая нейронная сеть с тем же уровнем развития будет неспособна отличить от подлинных. В результате создается сеть, способная генерировать неограниченное количество поддельных, но очень убедительно выглядящих изображений того или иного человека. Остается лишь склеить эти отдельные кадры в видео – и дипфейк готов. Аналогичные методы позволяют создавать фейковое аудио – судя по всему, этот способ обмана уже используют онлайн-мошенники.
Насколько убедительными стали дипфейки? Поначалу большинство видеороликов с дипфейками выглядели просто смехотворно. Но за несколько лет технология развилась настолько, что они стали пугающе убедительными. Один из ярких примеров 2018 года – поддельное видео с Бараком Обамой, в котором он рассказывал собственно о дипфейках и заодно бросил пару оскорблений в адрес действующего президента США. В середине 2019 года появилось короткое видео с поддельным Марком Цукербергом, который на удивление откровенно обрисовал текущее состояние дел с личными данными пользователей.
Как можно выявлять дипфейки? К примеру, анализ частоты морганий может помочь выявлять поддельные видео. Идея в том, что в большинстве случаев в открытом доступе есть не так уж много фотографий человека в момент моргания, так что нейронной сети просто не на чем учиться генерировать подобные кадры. Отметим, что люди в дипфейк-видео, доступных на момент публикации этой статьи, действительно моргали неправдоподобно редко. И даже если это не слишком бросалось в глаза при обычном просмотре, компьютерный анализ выявлял подделку. Также возможно искать артефакты искажения лица и несоответствия положений головы. Существует техника анализа выражений лица и мимики, характерных для конкретного человека.
Однако можно использовать другой подход – в частности, снижать ущерб от информационной атаки на компанию с помощью эффективных корпоративных коммуникаций. Для этого потребуется тщательно отслеживать публикуемые в Сети сведения, касающиеся вашей компании, и быть готовым контролировать ситуацию в случае дезинформации. Многие из этих предложений будут полезны и в случае других PR-катастроф:
• минимизируйте число каналов коммуникаций компании;
• организуйте согласованное распространение информации;
• разработайте план реагирования на дезинформацию (по аналогии с инцидентами безопасности);
• организуйте централизованный мониторинг каналов и отчетность;
• следите за новыми способами обнаружения дипфейков и методами борьбы с ними.
Подписывайтесь на наш канал в Telegram