Киберпреступники используют искусственный интеллект для совершения мошенничества и создания вредоносного ПО

Фан Ван Хоа (по данным Tomshardware, PCmag) DNUM_AHZBAZCACD 14:34

(Baonghean.vn) - Новое предупреждение, выпущенное Федеральным бюро расследований США (ФБР), свидетельствует о том, что киберпреступники используют программы искусственного интеллекта (ИИ) для мошеннических схем и создания вредоносного ПО.

ФБР недавно выпустило предупреждение о росте числа кибератак с использованием программ на основе искусственного интеллекта. По данным агентства, киберпреступники используют программы на основе искусственного интеллекта с открытым исходным кодом для различных видов вредоносной деятельности, включая разработку вредоносного ПО и фишинговых атак. Число людей, склонных использовать технологии искусственного интеллекта для фишинговых атак или разработки вредоносного ПО, растёт с тревожной скоростью, а последствия этой деятельности усиливаются.

Anh minh hoa1.jpg
Иллюстрация фото.

ФБР также считает, что хорошо защищенные модели ИИ, такие как ChatGPT, использовались для разработки вредоносного ПО, способного обходить даже новейшие системы безопасности.

Некоторые ИТ-эксперты недавно обнаружили опасный потенциал ChatGPT и его способность создавать вредоносное ПО, которое практически невозможно обнаружить с помощью систем обнаружения и реагирования на конечных точках (EDR).

EDR — это набор инструментов кибербезопасности, предназначенный для обнаружения и удаления вредоносных программ и любой другой подозрительной активности в сети. Однако эксперты утверждают, что этот традиционный протокол не подходит для предотвращения потенциального ущерба, который может нанести ChatGPT.

Вредоносные действия варьируются от использования программ искусственного интеллекта для совершенствования и запуска мошеннических схем до использования террористами технологий для разработки более мощных химических атак.

Большинство крупных языковых моделей (LLM), таких как ChatGPT, разработаны со встроенными фильтрами, чтобы предотвратить создание контента, который создатель считает неприемлемым. Это может быть как определённая тематика, так и, в данном случае, вредоносный код. Однако пользователи быстро находят способы обойти эти фильтры. Именно эта тактика делает ChatGPT особенно уязвимым для злоумышленников, желающих создать вредоносные скрипты.

«Мы ожидаем, что со временем, по мере дальнейшего внедрения и демократизации моделей ИИ, эти тенденции будут усиливаться», — заявил высокопоставленный сотрудник ФБР.

Хотя ФБР не раскрыло конкретные модели ИИ, которые используют преступники, агентство предупредило, что хакеры ищут бесплатные, настраиваемые модели с открытым исходным кодом, а также программы ИИ, которые хакеры разрабатывают сами.

Представители ФБР добавили, что опытные киберпреступники используют технологии искусственного интеллекта для разработки новых вредоносных атак, в том числе используя веб-сайты, созданные искусственным интеллектом, в качестве фишинговых страниц для тайного распространения вредоносного кода. Эта же технология помогает хакерам разрабатывать новые вредоносные программы, способные обходить антивирусное ПО.

ФБР ранее предупреждало, что мошенники используют генераторы изображений на основе искусственного интеллекта для создания реалистичных поддельных изображений жертв сексуального характера с целью вымогательства денег. В большинстве случаев, которые расследует агентство, преступники используют модели искусственного интеллекта для дополнения своих традиционных мошеннических схем. Это включает в себя попытки обмануть близких или пожилых людей с помощью мошеннических телефонных звонков с использованием технологии клонирования голоса с помощью искусственного интеллекта.

Столкнувшись с этой проблемой, ведущие мировые технологические компании, такие как Amazon, Google, Meta, OpenAI и др., подписали обязательство принять меры по управлению своими инструментами ИИ и будут проводить независимый аудит создаваемых ими программ ИИ перед их выпуском в свет, а также разработают решения для маркировки контента, создаваемого ИИ, чтобы помочь пользователям избежать дезинформации и мошеннического поведения.

Технологические компании также пообещали инвестировать в кибербезопасность, чтобы защитить свой собственный код ИИ от кражи или утечки. Три основополагающих принципа будущего ИИ — это безопасность, надёжность и доверие.

Избранная газета Nghe An

Последний

х
Киберпреступники используют искусственный интеллект для совершения мошенничества и создания вредоносного ПО
ПИТАТЬСЯ ОТОДИНCMS- ПРОДУКТНЕКО