Цифровая трансформация

ФБР предупреждает: киберпреступники уже используют ИИ для большинства видов мошенничества

Фан Ван Хоа December 9, 2024 15:09

Федеральное бюро расследований США (ФБР) предупредило, что киберпреступники все чаще используют искусственный интеллект (ИИ) для создания поддельных текстов, изображений, аудио- и видеоматериалов, увеличивая масштабы и изощренность своих мошенничеств.

Мошенники используют достижения искусственного интеллекта для создания больших объёмов убедительного фейкового контента и автоматизации мошеннических схем для масштабирования своей деятельности. ФБР выявило десятки способов, которыми киберпреступники используют искусственный интеллект для реализации своих мошеннических схем.

«Генеративный ИИ, в частности, сокращает время и усилия, необходимые преступникам для осуществления мошеннических действий», — отметило ФБР в публичном уведомлении. «Эти инструменты не только помогают создавать контент, но и могут исправлять человеческие ошибки, которые могут быть тревожным сигналом мошеннической деятельности».

Ảnh minh họa
Иллюстрация фото.

Использование контента, созданного искусственным интеллектом, не всегда незаконно. Однако, когда он используется в корыстных целях, таких как мошенничество, вымогательство или другие преступления, бывает невероятно сложно определить источник и определить, был ли он создан искусственным интеллектом.

ФБР считает, что предоставление конкретных примеров использования ИИ в киберпреступности поможет разоблачить мошенничество и повысить осведомленность общественности об этой угрозе.

Киберпреступники используют текст, сгенерированный искусственным интеллектом, чтобы обмануть читателей

Тексты, генерируемые искусственным интеллектом, часто очень убедительны и легко обманывают читателей. Преступники используют их для совершения мошеннических действий, таких как атаки социальной инженерии, мошенничество с использованием электронной почты, аферы с романтическими отношениями, инвестиционные мошенничества и многие другие мошеннические схемы. Такой контент может быть использован в таких ситуациях, как:

- Создание множества поддельных профилей на платформах социальных сетей с использованием поддельной информации, изображений и личностей для завоевания доверия жертв.

- Использование тактики быстрого реагирования помогает мошенникам оптимизировать свои возможности по охвату и взаимодействию с широким кругом целевой аудитории в Интернете.

- Мошеннические сайты часто имеют привлекательный профессиональный контент, призванный привлечь пользователей к участию в непрозрачной инвестиционной деятельности.

- На мошеннических сайтах чат-боты на базе искусственного интеллекта запрограммированы на естественное и убедительное взаимодействие с жертвами.

Киберпреступники используют поддельные изображения, созданные искусственным интеллектом, для совершения мошенничества

Киберпреступники активно используют искусственный интеллект для создания правдоподобных поддельных изображений для использования в качестве фотографий профиля, удостоверений личности и поддельных документов. ФБР предупреждает, что эти изображения используются в различных мошеннических целях, включая:

- Поддельные профили в социальных сетях являются инструментом атак с использованием социальной инженерии, используемым для совершения мошенничества по электронной почте, романтических мошенничеств, мошенничества с доверием и соблазнения жертв на фиктивные инвестиции.

- Поддельные документы, такие как водительские права или удостоверения личности, представляют собой изощренные имитации официальных документов, позволяющие преступникам выдавать себя за других и красть идентификационные данные для осуществления сложных мошеннических схем.

Ảnh minh họa1
Киберпреступники используют поддельные изображения, созданные искусственным интеллектом, для совершения мошенничества. Фото: Интернет

- Использование тщательно отредактированных изображений в приватных чатах для того, чтобы убедить жертв поверить в поддельные личности, тем самым выстраивая доверие.

- Использование образа знаменитостей или влиятельных лиц для продвижения поддельной продукции или мошеннических программ, использование репутации публичных лиц для повышения убедительности и привлечения жертв.

- Использовать изображения стихийных бедствий и трагических происшествий для пробуждения сострадания, призывать жертв делать пожертвования в фиктивные благотворительные организации и обманным путем заставлять жертв переводить деньги.

- Создание чувствительных изображений жертв с целью шантажа, угрозы их репутации и принуждения их платить деньги или выполнять другие требования.

Киберпреступники клонируют голоса, используя ИИ, чтобы обмануть жертв

Киберпреступники выдавали себя за знаменитостей, публичных личностей или даже за людей из числа близких друзей своих жертв, чтобы выманить у них деньги. ФБР задокументировало несколько случаев использования аудиозаписей, созданных искусственным интеллектом, в качестве изощрённого инструмента, включая:

- Использование ИИ для создания поддельных голосов близких, имитация чрезвычайных ситуаций с целью эксплуатации сострадания и выманивания жертв обманным путем денег или выкупа.

- Использование технологии генерации звука на базе искусственного интеллекта для обхода голосовой аутентификации, получения доступа к банковским счетам и проведения несанкционированных транзакций, что наносит серьезный ущерб жертвам.

Киберпреступники используют созданные искусственным интеллектом видеоролики в мошеннических видеозвонках

ФБР предупреждает, что киберпреступники все чаще используют технологии искусственного интеллекта для создания поддельных видеороликов, которые выглядят подлинными и правдоподобными, включая следующий контент:

- Использование созданных искусственным интеллектом поддельных видеороликов для проведения видеочатов в режиме реального времени с выдачей себя за руководителей компаний, сотрудников правоохранительных органов или других уполномоченных лиц с целью обмана и завоевания доверия жертв.

Ảnh minh họa2
Киберпреступники используют созданные искусственным интеллектом видео для мошеннических видеозвонков. Фото: Интернет

- Использование поддельных видео для ведения личных бесед, чтобы «доказать», что человек, общающийся онлайн, является «реальным» и заслуживающим доверия человеком, тем самым манипулируя жертвой более эффективно.

- Использование поддельных видеороликов, созданных для продвижения мошеннических инвестиционных программ, часто содержащих ложный или вымышленный контент для привлечения и обмана инвесторов. Такие видеоролики призваны создать атмосферу профессионализма и доверия, тем самым убеждая жертв вкладывать деньги в несуществующие проекты.

И рекомендации ФБР по защите от киберпреступности

Распознавать мошеннические схемы, созданные с помощью искусственного интеллекта, становится всё сложнее, поскольку они рассчитаны на то, чтобы обмануть даже опытных людей. В связи с этим ФБР предлагает несколько полезных советов, которые помогут вам защититься от потенциальных угроз.

- Придумайте секретное слово или фразу в своей семье, которые будут использоваться в качестве метода подтверждения личности в чрезвычайных ситуациях.

– Изображения и видео, созданные с помощью искусственного интеллекта, часто содержат недостатки, которые могут выдать подделку. К ним относятся деформированные руки или ноги, необычные зубы или глаза, асимметричные или нечёткие черты лица, а также аксессуары, такие как очки или украшения, которые выглядят нереалистично.

Ảnh minh họa3
Необычные знаки на изображениях и видео, созданных искусственным интеллектом. Фото: Интернет

Кроме того, могут возникнуть и другие аномалии, такие как неточные тени, неестественные водяные знаки, увеличенная задержка в реальном времени, рассинхронизированная озвучка и недостаточная плавность или точность движения.

- Обращайте особое внимание на тон голоса и выбор слов, поскольку они могут стать важными подсказками для различения настоящего звонка от любимого человека и фальшивого голоса, созданного искусственным интеллектом.

– Будьте осторожны с онлайн-контентом, содержащим ваше изображение и голос. Сделайте свои аккаунты в социальных сетях закрытыми и ограничьте список подписчиков теми, кого вы действительно знаете. Эти меры снижают риск использования ваших персональных данных в мошеннических целях.

– Никогда не делитесь конфиденциальной информацией с людьми, с которыми вы познакомились только в интернете или по телефону. Также никогда не переводите деньги, подарочные карты, криптовалюту или любые активы людям, которых вы мало знаете или с которыми познакомились только в интернете или по телефону.

Важное правило — не доверять никому, кто вам звонит. Вместо этого заранее найдите официальные контактные данные интересующего вас банка или организации в надёжных источниках и позвоните напрямую по номеру телефона, указанному на официальном сайте.

По данным Cybernews
Копировать ссылку

Избранная газета Nghe An

Последний

х
ФБР предупреждает: киберпреступники уже используют ИИ для большинства видов мошенничества
ПИТАТЬСЯ ОТОДИНCMS- ПРОДУКТНЕКО