Новости партнеров , Весь мир ,  
0 

Реальная подделка: в чем польза и вред дипфейков для бизнеса

Дипфейки появились несколько лет назад и быстро обрели огромную популярность. За короткий срок сеть заполонили поддельные ролики с участием певцов, политиков и других известных людей.

В искусственно сгенерированных видеороликах главные роли в знаменитых фильмах достались совсем другим актерам, а президенты начали делать смелые заявления, удивляющие общественность. И все это благодаря дипфейкам, которые изначально рассматривались исключительно как источник развлечения или инструмент для мошенников, а сейчас все чаще используются в бизнес-процессах. Рассказываем, что такое дипфейки, какая от них польза, есть ли вред и какую службу они способны сослужить бизнесу сегодня.

Как создают дипфейки

Дипфейк — это технология на основе нейросетей, которые могут не только распознавать лица и голоса людей по фотографиям и аудиозаписям, но и моделировать их. Само слово «дипфейк» (deepfake) образовалось из двух понятий на английском языке: «глубокое обучение» (deep learning) и «фальшивка» (fake). Если второй термин в расшифровке не нуждается, то на первом стоит остановиться подробнее.

Глубокое обучение — один из видов машинного обучения, в основе которого лежат искусственные нейронные сети. Глубоким такое обучение называют потому, что оно состоит из нескольких слоев, благодаря которым компьютер обучается решению задач в процессе собственной обработки данных.

Как бы запутанно это ни выглядело на первый взгляд, понять, как создаются дипфейки, довольно легко. Представьте себе капризного покупателя в магазине, который намерен выбрать идеальную шляпу. Ему приносят первую — не тот цвет, приносят вторую — не тот материал, приносят третью — перья не того размера. И так снова и снова продавец предлагает решение, а покупатель его отвергает, пока идеальная шляпа не будет найдена.

Так, если представить их примитивно, работают генеративно-состязательные сети, которые обычно и лежат в основе дипфейка. В этом алгоритме одна нейронная сеть (сеть-генератор) генерирует образцы, а другая (сеть-дискриминатор) старается отличить правильные от неправильных.

Анализируя фотографии пропавшего человека, нейронные сети помогают найти его по камерам наружного наблюдения. В этом состоит способность технологии распознавать изображения. Загрузив в компьютер несколько изображений человека или запись его речи, можно обучить машину моделировать его внешность и голос. Чем больше изображений и записей, тем эффективнее подбор, а значит, реалистичнее дипфейк.

Как собрать миллионы просмотров фальшивым видео

Зачастую дипфейк-видео носят развлекательный характер. Наибольшую популярность обрели ролики с голливудскими звездами, где актеры неожиданно для себя и зрителей оказываются героями фильмов, в которых никогда не снимались. Подобные работы регулярно появляются последние несколько лет, но до сих пор не приелись зрителям.

К примеру, в феврале 2020 года пользователи активно обсуждали видеофантазию на тему «Что, если бы исполнители главных ролей в фильмах по мотивам комиксов Marvel Том Холланд и Роберт Дауни — младший были героями легендарного «Назад в будущее»?». Спустя полтора года заинтересованность в дипфейках не угасла: в октябре 2021-го в сети размышляли, как бы выглядел Супермен и Ведьмак Генри Кавилл в образе агента 007.

Некоторые авторы дипфейков даже сами могут претендовать на звание знаменитостей благодаря тому, как легко их работы «помещаются» в инфопространство популярной культуры. Тот же дипфейк с Томом Холландом оказался столь удачным, что у самого актера спросили о возможном участии в ремейке «Назад в будущее». В ответ Холланд заявил, что подобная инициатива действительно была.

Так забавное дипфейк-видео породило яркий инфоповод, из-за которого читатели специализированных сайтов о кино снова и снова возвращались к оригинальному ролику. Неудивительно, что на момент написания статьи осенью 2021 года дипфейк собрал на YouTube более 11 млн просмотров. Результат в равной степени мотивирующий и вызывающий беспокойство.

В чем риск новой технологии

Очевидные риски, связанные с дипфейками, заключаются в доступности технологии и фантастической правдоподобности изображений и роликов. В сети легко найти десятки приложений, позволяющих пользователям поиграть с нейросетями. Самый обычный человек может установить Deepfakes web β или Zao и почувствовать себя героем любимого клипа, наложив свое фото на лицо музыканта. Умельцы, обладающие знаниями в машинном обучении и техникой достаточной мощности, без труда создают видео, которые невозможно отличить от реальных невооруженным глазом.

Именно таким был ролик под названием You won’t believe what Obama says in this video («Вы не поверите, что Обама сказал в этом видео»), опубликованный весной 2018 года на YouTube-канале BuzzFeedVideo. В этом видео Барак Обама в грубой форме критиковал своего преемника Дональда Трампа. В действительности Обама ничего подобного не говорил — текст произнес известный режиссер, комик и подражатель голоса Обамы Джордан Пил. Его речь и движения губ внедрили во вполне безобидное видео с бывшим президентом США.

Завирусившееся видео собрало более 8,7 млн просмотров, но успех сложно назвать однозначным. На его фоне Business Insider описал технологию как «будущее фейковых новостей». Такой вывод получился оттого, что дипфейк способен не только отправить знаменитость в фильм для взрослых, но и отомстить знакомому, поместив его лицо в компрометирующее видео. Именно в этом и состоит главная угроза технологии — мошенничество и дезинформация, способные обернуться репутационным крахом.

Тревожной фантазией на этот счет делится портал Insurance Business Australia. Авторы публикации просят читателей представить, что их компания блестяще закрыла год и готова поделиться впечатляющими финансовыми результатами. Генеральный директор записывает видео с подробным отчетом обо всех успехах для акционеров и выкладывает его в сеть. Неожиданно стоимость акций падает. Выясняется, что во всем виноват киберпреступник, который залил измененное видео, где глава компании рассказывает о плачевных результатах работы.

«Они (дипфейки) могут представить мирового лидера говорящим вещи, которые потенциально способны развязать войну. Они могут представить генерального директора рассказывающим о доходах так, что это поднимет цену акций или заставит ее упасть. Довольно дико, какой урон это может нанести и какую выгоду от этого получит хакер», — заявил управляющий директор и руководитель группы киберпрактики австралийской страховой компании Gallagher Джон Фарли.

Пять отраслей, которые начали использовать дипфейки

Говоря об угрозах дипфейков, эксперты подразумевают мошенников или интернет-шутников. При этом многие ученые, кинематографисты и представители бизнеса видят в дипфейках решение производственных проблем. Они уверены: дипфейки способны принести огромную пользу бизнесу, если использовать их во благо. Причем технология способна решать задачи в самых разных областях.

Дизайн и архитектура

Один из примеров позитивного потенциала дипфейков — нейросеть под названием GauGAN, разработанная технологической компанией Nvidia. Программа позволяет создать примитивный рисунок — вроде тех, что каждый хоть раз делал в Paint, — и сгенерировать из него реалистичное изображение.

Название сети вдохновлено творчеством французского художника Поля Гогена, известного своим примитивным стилем живописи. И если Гоген изображал реальность в слегка наивных образах, то GauGAN делает ровно противоположное: превращает самый наивный, «детский» рисунок в объемное изображение.

Находка для дизайнеров, художников и архитекторов, GauGAN сокращает путь между эскизом и финальным изображением, а также позволяет оценить потенциал идеи еще на стадии наброска.

Бизнес-коммуникация

В обиход нескольких компаний вошла разработка британского стартапа Synthesia. Его основатели предложили менеджерам создать собственного клона, который представляет сотрудника и компанию партнерам, а также заменяет физическое присутствие в условиях пандемии. Локдаун и тотальный переход на удаленку отучили многих бизнесменов от встреч за чашкой кофе и совместных партий в теннис. Налаживать коммуникацию приходится посредством видеозвонков и электронных писем. Именно в этом и пригодилась технология дипфейка: вместо менеджера, который в этот самый момент составляет годовой отчет, виртуальный клон презентует компанию перед потенциальным клиентом или договаривается о встрече с партнерами.

«Вместо того чтобы отправлять электронное письмо с текстом «Привет, у нас все в силе в пятницу», вы можете видеть и слышать меня самого», — поясняет Джаред Ридер, сотрудник одной из крупнейших в мире аудиторско-консалтинговых компаний EY, где уже успели оценить разработку.

Интересно, что в EY к таким аватарам относятся по-разному. Некоторым кажется, что дипфейк устраняет элемент человеческого общения. Другие убеждены, что вряд ли найдется что-то более человеческое, чем общаться с клиентом собственным голосом и в собственной манере, пусть на самом деле собеседником оказывается клон.

Реклама

Светлое будущее ждет технологию дипфейков в рекламе, причем как в коммерческой, так и в социальной. Несколько лет назад с помощью нейросетей английский футболист Дэвид Бекхэм на девяти языках призвал подписать петицию по борьбе с малярией под названием «Малярия должна умереть». Звезде спорта не пришлось перезаписывать ролик девять раз и учить иностранные языки — его речь на разных языках смоделировали с помощью технологии дипфейка.

Еще один яркий пример — успех новогодней рекламы «Сбера», в которой герой фильма «Иван Васильевич меняет профессию» Жорж Милославский оказался в 2020 году. Тот самый герой, призывавший советских граждан хранить деньги в сберегательной кассе, попал в будущее с его моментальными платежами, доставкой еды, заказом такси и другими сервисами «Сбера».

Кино

Пожалуй, в кино дальше прочих продвинулись в освоении дипфейков. Вскоре кино сможет частично или полностью избавиться от необходимости снимать опасные трюки с участием живых людей. Рисковать на съемках не придется ни самим актерам, ни их дублерам, ведь высокая реалистичность созданных нейросетями изображений позволит заменить их в съемках погонь на высоких скоростях или сцен с прыжками по крышам.

Отдельное место технология займет в процессе озвучивания. При адаптации фильмов для разных регионов многие нюансы речи актеров теряются в переводе. С дипфейками этого удастся избежать.

«Используя технологию дипфейка, как и в случае с рекламой, фильм можно скомпилировать с учетом не только языковых, но и национальных особенностей для разных стран. Современные дипфейк-технологии позволяют это сделать с помощью умных алгоритмов», — объяснил директор по развитию Iris Devices, резидента «Сколково», Александр Горшков.

Образование

В сфере образования дипфейки пока не так популярны. Однако уже сейчас крупные образовательные платформы могут использовать нейросети для создания обучающих видео. Собрав достаточное количество снимков и записей голоса преподавателя, возможно создать десятки познавательных видео без необходимости реальных съемок.

При этом сами курсы станут увлекательнее. Представьте, что лекцию по литературе прочтет не профессор, а сам Федор Достоевский — пусть даже сгенерированный нейросетью на основе терабайтов информации о писателе.

Какое будущее ждет дипфейки в бизнесе

С проблемой использования образа сталкиваются все, решившие использовать в своей работе дипфейки с участием известных людей. А тем, кто хочет попробовать технологию в своей компании, предстоит получить разрешение у сотрудников, чьи образы будут сгенерированы нейросетями.

Оценивая будущее технологии, сложно игнорировать новостные ленты, которые все чаще сообщают о злоумышленниках, задержанных за распространение дипфейков. В некоторых странах уже появились законы, регулирующие использование технологии. Так, в Калифорнии это касается политической агитации перед выборами, а также использования изображений людей в порнографических видео. Одновременно создается все больше программ для распознавания фальшивых видео. Такие программы позволяют отличить реальное изображение от сгенерированного и безошибочно определять подделки.

Несмотря на меры предосторожности, лишь немногие компании сегодня осмеливаются внедрять дипфейки в бизнес-процессы. По словам технического директора американской компании ZeroFOX, специализирующейся на кибербезопасности, коммерческое использование дипфейков растет из года в год. При этом инвесторы не спешат вкладываться в технологию. По мнению специалистов, это связано с негативным образом дипфейков, созданным СМИ, а также с открытыми вопросами этичности и легальности использования технологии.

Ответ специалисты видят в современных системах безопасности, а также ограничениях на законодательном уровне. Профессор прикладной этики Университета Вирджинии Дебора Джонсон считает: «Мы не должны так бояться технологии. К ней нужно применять дифференцированный подход. Да, требуются законы, запрещающие плохие и опасные вещи, вроде разжигания ненависти или порнографии из мести. Люди и общество должны быть защищены от этого. Но у нас не должно быть полного запрета для сатиры и свободы слова. И растущее коммерческое использование технологии выглядит многообещающе, как минимум в переводе фильмов на иностранные языки и создании увлекательных образовательных видео».