Технология Deepfake: полезна или опасна?

Фан Ван Хоа May 22, 2023 09:46

(Baonghean.vn) - В последнее время технология Deepfake привлекает внимание многих людей, после того как произошла ситуация, когда злоумышленники воспользовались ею для совершения видеозвонков с целью выманивания денег через приложения на платформах социальных сетей, таких как Zalo, Messenger...

Мы живём в мире технологического прогресса. Разрабатывается и применяется в повседневной жизни множество новых технологий, включая технологию дипфейков.

По мере развития технологий эксперты опасаются, что они могут представлять серьёзную угрозу. Однако у любой технологии есть две стороны. Если не обращать внимания на тёмную сторону, Deepfake — одна из чрезвычайно полезных технологий, которая имеет потенциал для развития в позитивном направлении в будущем.

Что такое технология Deepfake?

Дипфейк — это термин, появившийся в результате слияния «глубокого обучения» и «фейка» — технологии, имитирующей изображения человеческого лица и создающей поддельные аудио-, видео- и даже видеоматериалы. Создатели дипфейков могут манипулировать медиаконтентом, заменяя его внешним видом реального человека.

По сути, технология Deepfake основана на платформе машинного обучения с открытым исходным кодом от Google. Deepfake сканирует видео и портрет человека, затем объединяет их с отдельным видео с помощью ИИ и заменяет детали лица, такие как глаза, рот, нос, реальными движениями лица и голосом. Чем больше оригинальных изображений, тем больше данных ИИ должен изучить и создать более реалистичные фейковые изображения или видео. Deepfake может сопоставлять лица одного человека с другим на видео с поразительной реалистичностью.

Иллюстрация фото

Как работает дипфейк?

Deepfake использует два алгоритма: генератор для создания реалистичных данных и дискриминатор, который пытается отличить данные, сгенерированные генератором, от реальных данных. Генератор формирует обучающий набор данных на основе желаемого результата, создавая исходный фейковый цифровой контент, в то время как дискриминатор анализирует, насколько реалистична или фейкова исходная версия контента.

Этот процесс повторяется, что позволяет генератору данных улучшить фактическое создание контента, а дискриминатору данных стать более эффективным в выявлении ошибок для их исправления.

Сочетание алгоритмов генерации и дискриминации данных создаёт генеративно-состязательную сеть (GAN). GAN используют глубокое обучение для распознавания закономерностей на реальных изображениях, а затем используют эти закономерности для создания поддельных изображений.

При создании фотографий с эффектом deepfake система GAN просматривает фотографии объекта с разных ракурсов, чтобы запечатлеть все детали и перспективы. При создании видео с эффектом deepfake GAN просматривает видео с разных ракурсов и анализирует поведение, движения и особенности голоса. Эта информация затем многократно обрабатывается дискриминатором для уточнения подлинности изображения или видео и создания реалистичной поддельной версии.

Каковы преимущества Deepfake?

Технология Deepfake позволяет создателям контента создавать реалистичный контент для зрителей более креативным способом. Эта технология не только позволяет экспериментировать с созданием реалистичных фильмов, но и может быть использована для дальнейшего повышения качества видеоигр и другого мультимедийного контента.

Передовая технология, лежащая в основе Deepfake, открывает большие перспективы во многих областях, особенно в таких творческих индустриях, как кинопроизводство и реклама. В рекламных кампаниях и кинопроизводстве Deepfake может использоваться для озвучивания сложных сцен, экономя время и бюджет производства. Deepfake также считается чисто интернет-развлечением, позволяя пользователям легко обмениваться лицами с известными персонажами. Эта технология также разработана для того, чтобы онлайн-покупатели могли примерять одежду в виртуальных примерочных.

Эксперты в области технологий считают, что при использовании в позитивных целях Deepfake станет мощным маркетинговым инструментом, позволяющим автоматически и точно кадрировать фотографии. Эта технология действительно принесёт множество преимуществ маркетинговой индустрии, таких как:

Экономия средств

В некоторых случаях использование живых актёров не является обязательным. Дипфейк может стать новым решением: продюсерам достаточно приобрести лицензию на использование изображения актёра, создать или повторно использовать рекламный ролик, а затем вставить соответствующие изображения и диалоги, чтобы создать совершенно новый рекламный продукт. Продюсеры могут даже сэкономить, если привлекут к созданию видеоролика собственный штат сотрудников. Одним словом, дипфейк будет чрезвычайно полезен маркетологам с ограниченным бюджетом, которые хотят создавать высококачественный контент для своих кампаний.

Простой многоканальный маркетинг

Поскольку в этом случае не используются настоящие актёры, бренды могут легко адаптировать/создавать видео в соответствии со спецификой каждого маркетингового канала. Например, одно и то же лицо может быть использовано брендом для интеграции на разных платформах, таких как видео на YouTube, TikTok или Reels в Instagram… Не говоря уже о том, что этот процесс не так дорог и трудоёмок, как повторный найм актёров для съёмок.

«Супер» персонализированный контент

Deepfake откроет новую эру персонализированного контента/кампаний. С помощью этой технологии бренды смогут легко адаптировать видео/изображения к опыту, интересам и характеристикам целевой аудитории, например, цвету кожи. Если производитель таргетируется на различные группы, например, социально незащищенные слои населения или этнические группы, не похожие на амбассадора/модель бренда, то Deepfake поможет ему преодолеть это ограничение. С Deepfake также не составит труда создать видео на совершенно другом языке.

Можно сказать, что технология Deepfake способна внести огромные изменения в то, как снимаются фильмы и шоу и представляются зрителям.

В чем опасность использования Deepfake?

Несмотря на положительные стороны использования Deepfake, эта технология более популярна среди киберпреступников и может использоваться в вредоносных целях. Deepfake позволяет киберпреступникам легко создавать обманчивый контент и распространять дезинформацию, которая может серьёзно повлиять на сознание зрителей.

На самом деле пользователям непросто распознать фейковое изображение или видео, поэтому большинство интернет-зрителей могут стать жертвами дезинформации, распространяемой с использованием технологии Deepfake.

Если рассматривать некоторые способы использования дипфейка в преступных целях, то можно отметить, что он может включать в себя изменение исторических кадров и создание фейковых новостей. Более того, эта технология может быть использована для дискредитации компаний или даже для влияния на общественное мнение по определённым вопросам.

Дипфейки могут использоваться для самых разных преступлений, например, для дискредитации человека. Что, если программа для создания дипфейков распространится в интернете, и кто-то создаст порнографическое видео с вами и опубликует его на Facebook? Даже если это всего лишь розыгрыш, после попадания в сеть невозможно контролировать распространение этого видео и связанные с ним последствия.

Во многих случаях целью использования Deepfake уже не является шутка, а дискредитация, унижение, преследование или грязная игра, а также шантаж других.

Порнография — лишь одна из многочисленных проблем, которые создаёт дипфейк. Изначально появившись преимущественно в порновидео, дипфейк начинает проникать в политическую сферу, потенциально оказывая серьёзное влияние на реальную жизнь.

17 апреля 2018 года в интернете появилось видео, на котором человек, похожий на бывшего президента США Барака Обаму, ругает действующего президента Дональда Трампа нецензурными словами. Хотя позже общественность обнаружила, что видео не соответствует действительности, оно очень быстро распространилось и привело к печальным последствиям.

Эксперты обеспокоены тем, что технология Deepfake может повлиять на бизнес компании, разрушить репутацию влиятельного человека и вызвать политическую нестабильность, особенно во время выборов. Было бы ужасно, если бы в сети внезапно появилось видео с Deepfake, где кандидат в президенты развращает детей, или начальник полиции подстрекает сотрудников к насилию в отношении этнических меньшинств, или солдаты совершают зверства на войне…

Высокопоставленные лица, такие как политики и руководители бизнеса, подвергаются риску атак с использованием фейковых видеороликов. Даже обычные женщины могут стать жертвами мошенников, использующих эту технологию для создания фейковых порнографических и обнажённых видеороликов, что может негативно сказаться на их репутации и достоинстве. После того, как такие видеоролики попадают в интернет, остановить их практически невозможно. Более того, очень сложно отличить подлинность такого контента от фальшивости.

Очевидно, что Deepfake стал мировой проблемой, поставив многих людей в затруднительное положение после распространения в Интернете фейковых видеороликов.

Короче говоря, помимо преимуществ, которые технология Deepfake может принести во многих областях, таких как СМИ, развлечения, игры и т. д., она также может быть использована для мошенничества в интернете и распространения ложной информации. Поэтому регулирующим органам необходимо принять соответствующие меры для предотвращения злоупотреблений технологией Deepfake.


Ссылка

1.https://www.tech21century.com/deepfake-artificial-intelligence/

2.https://www.techtarget.com/whatis/definition/deepfake

Фан Ван Хоа