Цифровая трансформация

5 потенциальных опасностей при предоставлении личной информации чат-ботам на основе искусственного интеллекта

Фан Ван Хоа September 1, 2025 14:26

В эпоху искусственного интеллекта (ИИ) чат-боты становятся всё более популярными в качестве интеллектуальных инструментов поддержки. Однако передача личной информации этим ИИ-чат-ботам создаёт множество рисков, связанных с безопасностью, конфиденциальностью и сохранностью данных.

Нет сомнений, что ИИ меняет мир. Бурный рост популярности больших языковых моделей (LLM), особенно после запуска OpenAI ChatGPT в конце 2022 года, сделал ИИ привычным инструментом для сотен миллионов пользователей.

Благодаря своей способности оказывать поддержку, подсказывать и даже сопровождать во многих ситуациях, чат-боты на основе искусственного интеллекта быстро начинают использоваться не только для поиска информации или работы, но и в качестве «компаньона».

Ảnh minh họa1
Иллюстрация фото.

Всё больше людей делятся с искусственным интеллектом личной информацией, включая конфиденциальные данные. Но, как и в социальных сетях, раскрытие слишком большого объёма информации может иметь непредвиденные последствия. Вот пять причин быть осторожными.

1. Утечки данных представляют угрозу безопасности

Утечки данных — это не только технологический риск, но и прямая угроза конфиденциальности и безопасности. Кибербезопасность становится одной из самых быстрорастущих областей цифровой экономики, поскольку ущерб становится всё серьёзнее.

По данным Федерального бюро расследований США (ФБР), только в 2024 году ущерб от киберпреступлений составил более 16 миллиардов долларов, что на 33% больше, чем в предыдущем году. Мошенничество в интернете и утечки персональных данных вошли в тройку наиболее распространённых видов преступлений.

Вызывает беспокойство тот факт, что лишь около 24% инициатив в области генеративного ИИ полностью защищены от кибератак, что подвергает пользователей высокому риску, если они слишком свободно делятся информацией.

На самом деле утечек данных было много, например, утечка данных ChatGPT в мае 2023 года, в результате которой была раскрыта конфиденциальная информация почти 100 000 пользователей и платформа была вынуждена временно приостановить свою работу.

В том же году группа репортёров The New York Times обнаружила, что их персональные данные были раскрыты во время тестирования. Эти инциденты служат суровым напоминанием о том, что отправка персональных данных чат-ботам на базе искусственного интеллекта никогда не является безопасным решением.

2. Дипфейк может стать инструментом для мошенничества с использованием псевдонима.

Передача личной информации с помощью инструментов искусственного интеллекта не только увеличивает риск утечки данных, но и создаёт более сложную угрозу: мошенничество с использованием дипфейков. Сегодня многие люди регулярно загружают свои фотографии в сервисы обработки с использованием искусственного интеллекта, от улучшения внешнего вида до создания совершенно новых изображений, не задумываясь о последствиях.

Такое удобство непреднамеренно дает злодеям сырой материал для создания дипфейков — обработанных с помощью цифровой обработки изображений или видео, в которых создается впечатление, что персонаж делает или говорит что-то, чего никогда не было.

Эту технологию становится всё сложнее обнаружить, она способна обмануть как обычных пользователей, так и базовые системы верификации. В результате киберпреступники могут легко использовать её для выдачи себя за других, мошенничества, шантажа или нанесения серьёзного ущерба репутации.

Хотя дипфейки, созданные исключительно на основе персональных данных, всё ещё редкость, возможность воссоздать яркие голоса и изображения на основе украденных данных стала экзистенциальной угрозой. Это особенно опасно, когда личные данные пользователей попадают в чужие руки, создавая возможности для всё более сложно контролируемого мошенничества.

3. Чат-боты с искусственным интеллектом помнят больше, чем вы думаете

Одно из неписаных правил цифровой эпохи гласит: «Интернет ничего не забывает». Это касается не только поисковых запросов Google и публикаций в социальных сетях, но и общения с чат-ботами на базе искусственного интеллекта.

Многие считают, что при нажатии кнопки «Удалить» данные исчезают навсегда. Однако в реальности всё гораздо сложнее. Например, OpenAI утверждает, что разговоры в ChatGPT удаляются из системы без возможности восстановления только в течение 30 дней, если пользователь полностью удалит свою учётную запись. Те, кто продолжает пользоваться ChatGPT, не могут быть безвозвратно удалены из истории.

Ảnh minh họa2
Передача личной информации чат-ботам на основе искусственного интеллекта, таким как ChatGPT, создаёт множество рисков, связанных с безопасностью, конфиденциальностью и сохранностью данных. Фото: Интернет.

Исследование Университета Северной Каролины (США) показывает, что удаление данных из больших языковых моделей возможно, но практически невозможно проверить это с уверенностью. Это означает, что чат-боты способны запоминать больше, чем думают пользователи.

При длительном хранении персональных данных риски значительно возрастают в случае утечки данных, целенаправленной кибератаки или просто изменения политики поставщика услуг. В таких сценариях последствия для пользователей могут быть крайне серьёзными.

4. Предоставление данных для обучения чат-ботов на основе искусственного интеллекта может нарушить ваши права интеллектуальной собственности.

Современные системы искусственного интеллекта основаны на алгоритмах машинного обучения, которые используют миллионы наборов данных для поиска закономерностей и генерации соответствующих ответов. Важно отметить, что этот процесс обучения не останавливается после внедрения искусственного интеллекта, и пользовательские данные, полученные в ходе разговоров, взаимодействий или загрузки контента, могут стать «сырьём» для дальнейшего совершенствования модели.

Это означает, что любая предоставленная вами информация, даже непреднамеренно, может быть использована для обучения ИИ. В конце 2024 года социальная сеть LinkedIn столкнулась с волной критики, признав, что использовала пользовательские данные для обучения инструментов ИИ. После негативной реакции компания была вынуждена добавить возможность отказа от использования данных, но на самом деле мало кто об этом знает или активно корректирует свои действия.

LinkedIn не является исключением. Meta также извлекает данные из Facebook и Instagram, а Amazon использует данные об общении с Alexa для разработки своих моделей. Последствия могут привести к серьёзным нарушениям прав интеллектуальной собственности: созданные ИИ произведения порой слишком сильно отражают личный опыт писателей и художников, что подвергает их риску «копирования» прямо на цифровой платформе. Это становится причиной многочисленных коллективных исков и волны протестов в творческом сообществе.

5. Чат-боты на основе искусственного интеллекта могут использовать вашу личную информацию против вас

Риски, связанные с передачей персональных данных ИИ, выходят за рамки нарушения прав интеллектуальной собственности и связаны с потенциальной предвзятостью больших языковых моделей. Поскольку эти инструменты обучаются на больших объёмах данных, они подвержены впитыванию социальных предубеждений, что приводит к дискриминационным решениям или рекомендациям.

По оценкам Центра конфиденциальности и технологий Джорджтаунского университета, в базах данных распознавания лиц правоохранительных органов есть изображения половины всех взрослых американцев.

При этом афроамериканцы составляют почти 40% заключённых. Когда эти данные попадают в системы искусственного интеллекта, алгоритмы склонны к предвзятости при идентификации подозреваемых или сопоставлении лица с текстовым или графическим описанием.

Риски не ограничиваются безопасностью: технология искусственного интеллекта также применяется при проверке кандидатов на работу, одобрении кредитов или аренде жилья и может полностью отражать скрытые предубеждения.

В 2015 году Amazon пришлось закрыть свою автоматизированную систему подбора персонала после обнаружения гендерной предвзятости. Это показывает, что, хотя отдельным людям сложно контролировать данные, полученные при обучении ИИ, осторожность при обмене информацией по-прежнему является необходимым способом защиты от технологической предвзятости.

По данным Slashgear
Копировать ссылку

Избранная газета Nghe An

Последний

х
5 потенциальных опасностей при предоставлении личной информации чат-ботам на основе искусственного интеллекта
ПИТАТЬСЯ ОТОДИНCMS- ПРОДУКТНЕКО