Число случаев мошенничества с использованием Deepfake увеличится в 2024 году

Фан Ван Хоа (по данным CNBC) DNUM_CDZADZCACE 10:54

(Baonghean.vn) - По данным компании по проверке данных Sumsub (Великобритания), количество дипфейков во всем мире выросло в 10 раз за период с 2022 по 2023 год, при этом количество дипфейков в Азиатско-Тихоокеанском регионе (АТР) увеличилось на 1530%.

Что такое Дипфейк?

Дипфейк — это термин, появившийся в результате слияния «глубокого обучения» и «фейка» — технологии, имитирующей изображения человеческого лица и создающей поддельные аудио-, видео- и даже видеоматериалы. Создатели дипфейков могут манипулировать медиаконтентом, заменяя его внешним видом реального человека.

1000013982.jpg

По сути, технология deepfake основана на платформе машинного обучения с открытым исходным кодом от технологической компании Google. Deepfake сканирует видео и портрет человека, затем объединяет их с отдельным видео с помощью технологий искусственного интеллекта (ИИ) и заменяет детали лица, такие как глаза, рот, нос, реальными движениями лица и голосом.

Чем больше оригинальных изображений, тем больше данных ИИ сможет усвоить и создать более реалистичные фейковые изображения или видео. Дипфейки позволяют накладывать лицо одного человека на лицо другого в видео с невероятной реалистичностью.

Количество дипфейков увеличится в предвыборный год 2024 года

Использование дипфейков для выдачи себя за политиков становится все более распространенным явлением, особенно с учетом того, что 2024 год станет годом крупнейших глобальных выборов в истории.

По имеющимся данным, в этом году по меньшей мере 60 стран и более 4 миллиардов человек по всему миру будут голосовать за своих лидеров и представителей, что делает проблему дипфейков серьезной проблемой.

Согласно отчёту Sumsub, наибольший рост случаев мошенничества с использованием персональных данных в период с 2021 по 2023 год наблюдался в онлайн-медиа, включая платформы социальных сетей и цифровую рекламу, — на 274%. Среди отраслей, пострадавших от мошенничества с использованием персональных данных, — здравоохранение, транспорт и игровая индустрия.

Кроме того, в отчете о глобальных угрозах в 2024 году американская компания CrowdStrike, занимающаяся технологиями кибербезопасности, заявила, что в связи с большим количеством выборов, которые пройдут в этом году, может появиться дезинформация и/или фейковая информация, сеющая нестабильность.

Так, перед выборами в Индонезии 14 февраля в социальных сетях было распространено видео, на котором покойный президент Сухарто поддерживает политическую партию, которую он когда-то возглавлял. Однако видео было идентифицировано как дипфейк, созданный искусственным интеллектом, полностью копирующим его лицо и голос. Этот дипфейк собрал 4,7 миллиона просмотров только в социальной сети X (ранее Twitter).

Это не первый случай появления дипфейков. В Пакистане во время выборов всплыла дипфейковая мистификация о бывшем премьер-министре Имране Хане, предполагавшая, что его партия бойкотирует выборы. Тем временем в США избиратели Нью-Гэмпшира внезапно столкнулись с фейковой новостью о том, что президент Джо Байден призывает их не голосовать на праймериз.

Эксперты утверждают, что большинство дипфейков создаются внутри страны. Кэрол Сун, исследователь и руководитель отдела культуры и общества Сингапурского института политических исследований, отметила, что среди внутренних деятелей могут быть как политические оппоненты, так и противники, а также крайне правые и крайне левые.

Между тем г-н Саймон Честерман, старший директор по управлению проектами ИИ в Национальной программе ИИ Сингапура, заявил, что Азия не готова решать проблему дипфейка на выборах с точки зрения трех аспектов: правового, технологического и образовательного.

В чем опасность дипфейков?

Комментируя опасность, которую представляют дипфейки, Кэрол Сун заявила, что, как минимум, дипфейки загрязняют информационную экосистему и мешают людям находить точную информацию и формировать обоснованное мнение о партии или кандидате.

Избиратели также могут отвернуться от конкретного кандидата, если увидят, что информация о скандальном вопросе быстро распространяется в социальных сетях, прежде чем она будет опровергнута, сказал Саймон Честерман. Хотя у некоторых правительств есть инструменты для борьбы с дезинформацией в интернете, существует опасение, что правда будет искажена прежде, чем её удастся исправить.

«Мы видели, как быстро X (бывший Twitter) может быть захвачен дипфейковым порно с Тейлор Свифт. Такие вещи распространяются невероятно быстро», — сказал Честерман, добавив, что меры часто неэффективны и крайне сложно реализуемы. «Часто уже слишком поздно».

Адам Майерс из компании CrowdStrike, занимающейся технологиями кибербезопасности, утверждает, что дипфейки также могут вызывать предвзятость подтверждения — эффект, возникающий при обработке информации людьми. «Даже если в глубине души они знают, что это неправда, они всё равно примут это, если это именно то сообщение, которое им нужно, и то, во что они хотят верить», — объясняет он.

Г-н Честерман усилил опасения, заявив, что фальшивое видео, фиксирующее нарушения на выборах, такие как вброс бюллетеней, может привести к потере доверия избирателей к действительности выборов.

По словам г-жи Сун, кандидаты могут отрицать правду о себе, утверждая, что вся негативная информация о них является ложной.

Ведущие технологические компании обещают приложить усилия для борьбы с дипфейками

В феврале 20 ведущих технологических компаний, включая Microsoft, Meta, Google, Amazon, IBM, а также компанию по разработке искусственного интеллекта OpenAI и компании социальных сетей, такие как Snap, TikTok и X, договорились о совместном обязательстве бороться с использованием искусственного интеллекта в целях мошенничества на выборах этого года.

Совместное обязательство — важный первый шаг, но его эффективность зависит от реализации и обеспечения соблюдения. По словам Суна, это потребует от технологических компаний комплексного подхода к внедрению различных мер на своих платформах. Технологические компании также должны обеспечить прозрачность принимаемых ими решений, например, в отношении используемых ими процессов.

Но Саймон Честерман утверждает, что ожидать от частных компаний выполнения базовых государственных функций не так уж и сложно. Решение о том, какой контент разрешён в социальных сетях, — сложная задача, и некоторым компаниям на принятие решения могут потребоваться месяцы.

Для достижения этой цели Альянс по аттестации и аутентификации контента (C2PA) представил платформу, предназначенную для аутентификации цифрового контента. Платформа позволяет зрителям получать проверенную информацию, такую ​​как сведения об авторе, источнике и времени создания, а также об общем характере информации и о том, была ли она сгенерирована искусственным интеллектом.

В число компаний-членов C2PA входят Adobe, Microsoft, Google и Intel. Ранее в этом году компания OpenAI объявила о внедрении технологии аутентификации C2PA для изображений, созданных с помощью её языковой модели генерации изображений DALL·E 3.

В интервью Bloomberg House на Всемирном экономическом форуме в январе основатель и генеральный директор OpenAI Сэм Альтман заявил, что компания сосредоточена на том, чтобы ее технологии не использовались для манипулирования выборами.

Адам Майерс из компании CrowdStrike, занимающейся кибербезопасностью, предложил создать беспристрастную некоммерческую организацию, которая будет анализировать и выявлять дипфейки. «Люди могли бы отправлять им контент, который, по их мнению, был подменён. Об этом непросто донести, но, по крайней мере, есть механизм, которому люди могут доверять», — сказал Майерс.

Но в конечном счёте, хотя технологии и являются частью решения, большая часть решения лежит на пользователях. Общественность должна быть более бдительной, и помимо проверки фактов, когда что-то выглядит очень подозрительно, пользователи также должны проверять важную информацию, особенно перед тем, как делиться ею с другими.

Фан Ван Хоа (по данным CNBC)