Цифровая трансформация

ФБР предупреждает: киберпреступники уже используют ИИ практически для всех видов мошенничества

Фан Ван Хоа DNUM_AJZBCZCACE 15:09

Федеральное бюро расследований США (ФБР) предупредило, что киберпреступники все чаще используют искусственный интеллект (ИИ) для создания поддельных текстов, изображений, аудио- и видеоконтента, увеличивая масштабы и изощренность своих мошенничеств.

Мошенники используют достижения искусственного интеллекта для создания больших объёмов убедительного фейкового контента и автоматизации мошеннических схем для масштабирования своей деятельности. ФБР выявило десятки способов, которыми киберпреступники используют искусственный интеллект для реализации своих мошеннических схем.

«Генеративный ИИ, в частности, сокращает время и усилия, необходимые преступникам для осуществления мошеннических действий», — отметило ФБР в публичном уведомлении. «Эти инструменты не только помогают создавать контент, но и могут исправлять человеческие ошибки, которые могут быть тревожным сигналом мошеннической деятельности».

Ảnh minh họa
Иллюстрация фото.

Использование контента, созданного искусственным интеллектом, не всегда незаконно. Однако, когда он используется в корыстных целях, таких как мошенничество, вымогательство или другие преступления, становится крайне сложно определить источник и определить, был ли он создан искусственным интеллектом.

ФБР считает, что предоставление конкретных примеров использования ИИ в киберпреступности поможет разоблачить мошенничество и повысить осведомленность общественности об этой угрозе.

Киберпреступники используют текст, сгенерированный искусственным интеллектом, чтобы обмануть читателей

Тексты, генерируемые искусственным интеллектом, часто очень убедительны и легко обманываются, что позволяет преступникам использовать их для совершения мошеннических действий, таких как социальная инженерия, мошенничество с электронными письмами, романтические аферы, инвестиционные мошенничества и многие другие. Такой контент может быть использован в таких ситуациях, как:

- Создайте несколько поддельных профилей в социальных сетях, используя поддельную информацию, изображения и личности, чтобы завоевать доверие жертв.

- Использование тактики быстрого реагирования помогает мошенникам оптимизировать свои возможности по охвату и взаимодействию с широким кругом целевой аудитории в Интернете.

- Мошеннические сайты часто имеют привлекательный профессиональный контент, призванный привлечь пользователей к участию в непрозрачной инвестиционной деятельности.

- На мошеннических сайтах чат-боты со встроенной технологией искусственного интеллекта запрограммированы на естественное и убедительное взаимодействие с жертвами.

Киберпреступники используют поддельные изображения, созданные искусственным интеллектом, для совершения мошенничества

Киберпреступники активно используют искусственный интеллект для создания правдоподобных поддельных изображений для использования в качестве фотографий профиля, удостоверений личности и поддельных документов. ФБР предупреждает, что эти изображения используются для различных видов мошенничества, включая:

- Поддельные профили в социальных сетях являются инструментом атак с использованием социальной инженерии, используемым для совершения мошенничества по электронной почте, романтических мошенничеств, мошенничества с доверием и соблазнения жертв на фиктивные инвестиции.

- Поддельные документы, такие как водительские права или удостоверения личности, представляют собой изощренные имитации официальных документов, позволяющие преступникам выдавать себя за других и красть идентификационные данные для осуществления сложных мошеннических схем.

Ảnh minh họa1
Киберпреступники используют поддельные изображения, созданные искусственным интеллектом, для совершения мошенничества. Фото: Интернет

- Использование сложно отредактированных изображений в приватных чатах для убеждения жертв в поддельности личности и тем самым укрепления доверия.

- Использование образа знаменитостей или влиятельных лиц для продвижения поддельной продукции или мошеннических программ, использование репутации публичных лиц для повышения убедительности и привлечения жертв.

- Использовать изображения стихийных бедствий и трагических происшествий для пробуждения сострадания, призывать жертв делать пожертвования в фиктивные благотворительные организации и обманным путем заставлять жертв переводить деньги.

- Создание чувствительных изображений жертв с целью шантажа, угрозы их репутации и принуждения их платить деньги или выполнять другие требования.

Киберпреступники клонируют голоса, используя ИИ, чтобы обмануть жертв

Киберпреступники выдавали себя за знаменитостей, публичных личностей или даже за людей из числа близких друзей своих жертв, чтобы выманить у них деньги. ФБР задокументировало несколько случаев использования аудиозаписей, созданных искусственным интеллектом, в качестве сложного инструмента, включая:

- Используйте ИИ для создания поддельных голосов близких, имитируйте чрезвычайные ситуации, чтобы эксплуатировать сострадание и обманным путем вынуждать жертв отправлять деньги или платить выкуп.

- Использование технологии генерации звука на базе искусственного интеллекта для обхода голосовой аутентификации, получения доступа к банковским счетам и проведения несанкционированных транзакций, что наносит серьезный ущерб жертвам.

Киберпреступники используют созданные искусственным интеллектом видеоролики в мошеннических видеозвонках

ФБР предупреждает, что киберпреступники все чаще используют технологии искусственного интеллекта для создания поддельных видеороликов, которые выглядят подлинными и правдоподобными, включая следующий контент:

- Использование созданных искусственным интеллектом поддельных видеороликов для проведения видеочатов в режиме реального времени с выдачей себя за руководителей компаний, сотрудников правоохранительных органов или других уполномоченных лиц с целью мошенничества и завоевания доверия жертв.

Ảnh minh họa2
Киберпреступники используют созданные искусственным интеллектом видео для мошеннических видеозвонков. Фото: Интернет

- Использование поддельных видео для ведения личных бесед с целью «доказать», что человек, с которым связываются в сети, является «реальным» и заслуживающим доверия человеком, тем самым манипулируя жертвой более эффективно.

- Использование поддельных видеороликов, созданных для продвижения мошеннических инвестиционных программ, часто содержащих ложный или вымышленный контент для привлечения и обмана инвесторов. Такие видеоролики призваны создать атмосферу профессионализма и доверия, тем самым убеждая жертв вкладывать деньги в несуществующие проекты.

И советы ФБР по защите от киберпреступности

Распознавать мошеннические схемы, созданные с помощью искусственного интеллекта, становится всё сложнее, поскольку они рассчитаны на то, чтобы обмануть даже опытных людей. В связи с этим ФБР предлагает несколько полезных советов, которые помогут вам защититься от потенциальных угроз.

- Придумайте секретное слово или фразу в своей семье, которые будут использоваться в качестве метода подтверждения личности в чрезвычайных ситуациях.

– Изображения и видео, созданные с помощью искусственного интеллекта, часто содержат недостатки, которые могут выдать подделку. К ним относятся деформированные руки или ноги, необычные зубы или глаза, асимметричные или нечёткие черты лица, а также нереалистичные аксессуары, такие как очки или украшения.

Ảnh minh họa3
Необычные знаки на изображениях и видео, созданных искусственным интеллектом. Фото: Интернет

Кроме того, могут возникнуть и другие аномалии, такие как неточные тени, неестественные водяные знаки, увеличенная задержка в реальном времени, рассинхронизация голоса и отсутствие плавности или точности движений.

- Обращайте особое внимание на тон голоса и выбор слов, поскольку они могут быть важными подсказками, позволяющими отличить настоящий звонок от любимого человека от фальшивого голоса, созданного искусственным интеллектом.

– Будьте осторожны с контентом в интернете, содержащим ваше изображение и голос. Сделайте свои аккаунты в социальных сетях закрытыми и ограничьте список подписчиков теми, кого вы действительно знаете. Эти меры снижают риск использования ваших персональных данных в мошеннических целях.

– Никогда не делитесь конфиденциальной информацией с людьми, с которыми вы познакомились только в интернете или по телефону. Также никогда не переводите деньги, подарочные карты, криптовалюту или любые активы людям, которых вы мало знаете или с которыми познакомились только в интернете или по телефону.

Важное правило — не доверять никому, кто вам звонит. Вместо этого постарайтесь самостоятельно найти официальную контактную информацию банка или другой организации в достоверных источниках и позвонить напрямую по номеру телефона, указанному на официальном сайте.

По данным Cybernews
Копировать ссылку

Избранная газета Nghe An

Последний

х
ФБР предупреждает: киберпреступники уже используют ИИ практически для всех видов мошенничества
ПИТАТЬСЯ ОТОДИНCMS- ПРОДУКТНЕКО