Хакеры используют ChatGPT для создания сложного вредоносного ПО
Недавно ведущая компания по исследованию искусственного интеллекта OpenAI (США) подтвердила, что хакеры используют ее модель искусственного интеллекта ChatGPT для создания вредоносного ПО и проведения кибератак.
Недавний отчёт выявил тревожную реальность использования ChatGPT для кибератак. С начала 2024 года было зафиксировано более 20 инцидентов, в которых хакеры использовали ChatGPT для фишинговых атак, кражи данных и нарушения работы систем, что нанесло серьёзный ущерб многим организациям и частным лицам.
В отчёте OpenAI раскрывается тревожный факт: хакерские группировки, связанные с государственными структурами, особенно из Китая и Ирана, в полной мере используют возможности ChatGPT для усиления своих киберопераций. От тонкой настройки сложного вредоносного ПО до создания вредоносных кампаний в социальных сетях, ChatGPT стал мощным инструментом для масштабных кибератак.

Тревожным событием стало обнаружение китайской хакерской группы SweetSpecter в использовании ChatGPT для осуществления вредоносной деятельности. Группа использовала ChatGPT для сбора конфиденциальной информации, поиска уязвимостей в системе безопасности и разработки новых типов вредоносного ПО. Они даже осмелились атаковать саму OpenAI с помощью фишинговых атак, чтобы получить доступ к данным сотрудников компании и украсть их.
Ещё одна серьёзная угроза исходит от иранской хакерской группы CyberAv3ngers, тесно связанной с Корпусом стражей исламской революции. Группа использует ChatGPT для поиска уязвимостей в системах управления заводами и критически важной инфраструктурой. Цель группы — создание вредоносного кода для атаки и парализующей работы этих систем, что приведёт к серьёзным последствиям.
Кроме того, было обнаружено, что другая хакерская группа из Ирана, под названием «STORM-0817», использует искусственный интеллект для создания вредоносного ПО для телефонов Android. Это ПО способно красть персональные данные пользователей, такие как номера телефонов, историю вызовов и местоположение.
Хотя хакерские группы экспериментировали с использованием ChatGPT для создания вредоносного ПО, OpenAI утверждает, что это не привело к каким-либо прорывам в области кибератак. ChatGPT — всего лишь вспомогательный инструмент, а создание эффективных кибератак по-прежнему требует человеческих знаний и опыта.
Компания утверждает, что результаты, полученные при использовании хакерами GPT-4, всё ещё находились в пределах ранее предсказанных возможностей. Другими словами, GPT-4 не смог создать более сложные и эффективные кибератаки, чем другие инструменты.
В отчёте говорится, что развитие генеративного ИИ упрощает возможность стать хакером. Любой, даже с минимальными техническими знаниями, может использовать ИИ для создания инструментов кибератак, что повышает риск быть атакованным.
В ответ на эти угрозы OpenAI внедрила меры по предотвращению вредоносной активности, включая блокировку учётных записей, связанных с выявленной активностью. Компания также сотрудничает с отраслевыми партнёрами и заинтересованными сторонами для обмена информацией об угрозах и совершенствования коллективной киберзащиты.
Эксперты по безопасности обеспокоены тем, что ситуация будет только ухудшаться по мере развития технологий искусственного интеллекта. Они утверждают, что компаниям, разрабатывающим ИИ, необходимы надежные меры защиты и эффективные системы обнаружения, чтобы предотвратить использование этой технологии злоумышленниками в вредоносных целях.
Открытия OpenAI стали сигналом тревоги для технологической отрасли и политиков, призывающими обратить внимание на потенциальные риски, связанные с передовыми системами ИИ.
ИИ становится всё более неотъемлемой частью нашей жизни. Чтобы максимально эффективно использовать преимущества ИИ, обеспечивая при этом безопасность, нам необходимо найти баланс между разработкой новых технологий и защитой персональных данных. Это поможет предотвратить использование ИИ злоумышленниками в вредоносных целях.
Компания OpenAI обязалась сделать всё возможное, чтобы предотвратить использование её инструментов искусственного интеллекта злоумышленниками в вредоносных целях. Компания продолжит выявлять и устранять случаи ненадлежащего поведения, а также делиться своими знаниями с другими исследователями для совместного создания более надёжных систем безопасности. OpenAI также усилит свою защиту от атак профессиональных хакеров, особенно связанных с государственными структурами.
В будущем ИИ будет играть важную роль в нашей жизни. Однако, чтобы избежать потенциальных рисков, разработчикам ИИ, экспертам по кибербезопасности и правительствам необходимо тесно сотрудничать. Вместе им необходимо найти способы безопасной и надежной разработки ИИ, а также предотвратить использование ИИ злоумышленниками во вред.