fbpx

Нейросети могут стать инструментом развития экономики или технологий для грязной конкуренции в политике и бизнесе.

 

дипфейк 

На недавнем совещании с руководителями СМИ глава государства отметил: «Дипфейки - это информационная отрава сродни химическому оружию»! Тем самым Президент показал, что держит руку на пульсе развития информационных технологий. Ведь дипфейк - это действительно передовой рубеж ИТ, который может быть оружием не только в политике, но и в конкурентной борьбе.

 

«Глубокая фальшивка»

 

Серьезное внимание к теме дипфейк (deepfake - глубокая фальшивка) привлек вирусный ролик, который появился в Сети два года назад. На видео бывший президент США Барак Обама обзывал действующего президента Трампа, не стесняясь в выражениях. На крупном плане артикуляция в точности соответствовала невообразимому потоку сквернословия. Ролик был запущен новостной интернет-компанией BuzzFeed для того, чтобы обратить внимание на опасность дипфейков, в частности, в политической борьбе. Оказывается, в условиях демократической среды наибольший вред приносят не мифические «русские хакеры», а технологии. В конце концов полгода назад Конгресс США провел слушания о возможном злонамеренном использовании дипфейков для влияния на выборы.

 

В бизнесе существует конкуренция не менее острая, чем в политической жизни. Поэтому такое мощное оружие как дипфейк также не остается без внимания. Год назад пробный шар по этой части запустил даже американский технический гений Илон Маск. Предприниматель постоянно озабочен привлечением инвестиций для своих масштабных проектов. На волне хайпа криптовалют появилась его фейковая похвала в адрес ничего не значащего криптовалютного проекта Dogeсoin. В отличие от биткоина Dogeсoin - это так называемый «скамовый» (мошеннический) проект, не имеющий серьезной базы и плана развития. Тем не менее, на фейковом интересе Маска котировки этой виртуальной монетки взлетели до небес. Фактически очень простой, ничего не стоящей словесной интервенции оказалось достаточно, чтобы получить серьезные средства. Впрочем, Маск не рискнул воспользоваться этой спекуляцией и быстро опубликовал в своем твиттере саморазоблачающий пост о дипфейке.

 


Технология «дипфейк» позволяет обратить против бизнеса самую большую человеческую слабость - доверие.


 

Видеоподделки чаще всего используются для дискредитации и уничтожения репутации. Интернет постепенно наводняют порнографические ролики с участием влиятельных людей. Больше всех досталось почему-то голливудской звезде Николасу Кейджу. Что касается бизнеса, то здесь ущерб деловой репутации приносит прямые финансовые потери. Потому что подобные технологии позволяют обратить против бизнеса самую большую человеческую слабость - доверие.

 

Состязание искусственных интеллектов

 

Сама возможность зловредного использования технологий в публичном пространстве прогнозировалась еще более 10 лет назад, например, в книге «Черный PR: запрещенные приемы нападения и защиты» (Изд. Питер, 2007 г., автор И. Клоков). Выводы делались на основании анализа академических исследований применения машинного обучения, в результате которых появилась программа с говорящим названием Video Rewrite («Видео перезапись»). Она позволяла подкладывать другую звуковую дорожку под видео говорящего лица.

 

Однако попытки фабрикации видеосвидетельств были малоуспешными, пока не появился искусственный интеллект, превосходящий человеческий - по крайней мере, в некоторых применениях. Машинный интеллект обучается на огромном массиве данных, что недоступно человеческому мозгу. Фактически дипфейк - это результат состязания двух алгоритмов нейросети, один из которых изучает доступные изображения и создает их модификации, а второй пытается выявить подделку. Результат признается удачным, когда «алгоритм-контролер» начинает совершать ошибки и путает подделку с оригиналом. Этот метод получил название GAN (generative adversarial network - генеративно-состязательная сеть). Его относят к категории «глубокого обучения» - продвинутого варианта машинного обучения или самообучения машины «без учителя».

 

Легко догадаться, что наилучший результат достигается только при большом массиве данных - фотографий и видеоматериалов. Поэтому самыми легкими мишенями для видеофальшивок становятся публичные персоны и популярные политики.

 


Уже сейчас дипфейк может использоваться для фишинга и проникновения в корпоративные сети.


 

Другое направление фальшивок - генерация фиктивных аккаунтов в социальных сетях, где используются сфабрикованные лица несуществующих людей. С их помощью создаются целые сообщества, которые в состоянии влиять на формирование общественного мнения. В частности, американский холдинг Epoch Media Group был уличен в создании такого рода групп в Facebook для поддержки президента Трампа и дискредитации китайского руководства во время американо-китайской торговой войны.

 

Белорусский и китайский след

 

Неудивительно, что авангардная технология не могла пройти мимо профессионалов отечественной ИТ-индустрии. В 2016 г. прогремела новость о том, что белорусский стартап Masquerade Technologies удачно продал Facebook свою разработку - приложение MSQRD. Никаких зловредных целей с помощью этой программы достичь не получится, поскольку это шутливое развлекательное приложение, которое позволяет дополнять свое фото или видеоселфи маскарадными масками. Но в нем используется вполне серьезная 3D-технология создания изображений. К сожалению, сразу после продажи продукта его создатели уехали в Лондон, в британский офис Facebook. Но остается надежда, что в нашей ИТ-стране есть и другие разработчики, которые понимают принципы видеомодификации с использованием машинного обучения и искусственного интеллекта.

 

В прошлом году китайские специалисты также выпустили бесплатное приложение Zao, с помощью которого любой желающий может представить себя героем кинобоевика. Популярность его оказалась так велика, что быстро вызвала критику по части покушения на персональные данные. В результате самая популярная китайская сеть и мессенджер WeChat сообщила, что будет удалять дипфейки, созданные в Zao.

 

Однако такие угрозы никого не останавливают. Постоянно появляются новые приложения для дипфейков, причем большинство из них - бесплатные. Это подтолкнуло специалиста Центра технологических инноваций в государственной политике США профессора Д. Вильясенора заявить: «Фактически каждый, у кого есть компьютер и выход в интернет, может технически производить фальшивый контент». А социальные сети разносят этот контент по всему миру в кратчайшие сроки.

 

Во благо

 

Помимо деструктивного использования дипфейки, конечно, могут применяться и в конструктивном плане. Возможно, бизнес пока просто не осознает всех новых возможностей. Из удачных примеров - «оживление» Сальвадора Дали в его музее во Флориде. Скандальный сюрреалист озвучивает экспозицию и даже делает селфи с посетителями.

 

В Японии эта технология уже используется в модной индустрии - для проектирования одежды и прогнозирования (а, возможно, и создания!) модных трендов. А корейцы рассматривают возможности применения ее в пластической хирургии.

 

Дипфейк не заканчивается на фабрикации видеоизображения лица. В конце концов айтишники уже научились подделывать все тело. А с этим можно фабриковать не только заявления на камеру, но и поступки, которых не было, и умения, которыми не обладаешь. Например, в государственном Калифорнийском университете в Беркли создали приложение, которое может фабриковать видео блестящих танцевальных навыков для любого желающего.

 

Много шума недавно наделало «оживление» семилетней корейской девочки Наён, которая умерла 3 года назад. Мама смогла с ней поговорить и даже потрогать с помощью костюма виртуальной реальности. Даже она не смогла отличить по внешности, голосу и манере поведения компьютерное создание от своей дочери!

 

Клин клином

 

Эксперты солидарны в прогнозах: если сейчас фейковые видео еще можно отличить от реальных, то в обозримом будущем идентифицировать подделки не смогут не только массовые пользователи, но и специалисты. Как избежать тотального оболванивания? С помощью тех же технологий, которыми создаются фейки, т.е. с помощью искусственного интеллекта и машинного обучения. Фактически в ИТ-сферу переносятся принципы известного соревнования «брони и снаряда», когда, с одной стороны, совершенствуются средства разрушения, а с другой - улучшаются средства защиты.

 

Самая крупная соцсеть Facebook уже внесла изменения в политику размещения контента, пообещав своевременно удалять фейковые видео. Очевидно, это делается в преддверии президентских выборов в США, которые обещают кратное увеличение потока фейковых новостей. Facebook совместно с Microsoft уже начали создавать базу данных поддельных видео. Воспользоваться ею смогут исследовательские команды в ведущих университетах. Цель - найти средство от дипфейков. Но скептики отмечают, что, как и в случае снаряда и брони, защитные средства всегда будут отставать от средств нападения. Остается вопрос: чему люди будут больше верить - фальшивке или инструменту, который эту фальшивку выявит?

 

Старые методы против новых угроз

 

На дипфейки быстро отреагировали специалисты по кибербезопасности. Они обращают внимание, прежде всего, на угрозы проникновения в корпоративные сети с использованием «человеческого фактора» и фишинга. То есть выуживания паролей или принуждения к совершению небезопасных действий. Вряд ли найдется сотрудник, который откажется выполнить прямой приказ руководства, полученный с помощью видео-интеркома. Понятно, что это новая угроза. Но для противодействия ей пока могут предложить только старые проверенные методы - многофакторную аутентификацию, т.е. подтверждение личности по разным каналам связи. Хотя не всегда такая осторожность будет воспринята руководством благосклонно.

 

Тем не менее, именно старые проверенные методы безопасности, по мнению профи, лучше всего подходят для защиты. Помимо двухфакторной, а лучше - многофакторной идентификации (например, получив приказ по видео, перезвонить руководителю по телефону), специалисты также настаивают на разработке и соблюдении «политик безопасности». «Политики» в данном случае - это список мероприятий и действий, которые необходимо предпринять в случае обнаружения атаки либо подозрительных действий. Они разрабатываются заранее и могут помочь избежать ошибок в условиях стресса.

 

В конечном итоге рекомендации сводятся к простому правилу: Никому не верь! Как тут не вспомнить Козьму Пруткова с его бессмертным афоризмом: «Если на клетке слона прочтешь надпись «буйвол», не верь глазам своим»!

 

дипфейк КлоковИгорь КЛОКОВ