Lừa đảo sử dụng công nghệ AI: Nhận diện sớm 4 chiêu trò để tránh mất tiền, lộ danh tính
Trí tuệ nhân tạo (AI) đang làm thay đổi Internet theo cách chưa từng có, nhưng song hành với tiện ích là những chiêu lừa đảo ngày càng tinh vi. Từ email giả mạo, nhân bản giọng nói đến video deepfake, AI đang bị lợi dụng để đánh lừa người dùng ở mức đáng báo động.
Dù đã sẵn sàng hay chưa, trí tuệ nhân tạo tạo sinh (generative AI) vẫn đang lan rộng với tốc độ chóng mặt trên Internet. Các tập đoàn công nghệ lớn liên tục tung ra công cụ và trợ lý ảo dựa trên AI, thậm chí nhiều chatbot còn được đánh giá là hoạt động vượt trội so với những nền tảng phổ biến hiện nay.
Tuy nhiên, mặt trái đáng lo ngại là các công nghệ này cũng nhanh chóng rơi vào tay những kẻ xấu. Giới lừa đảo đã khai thác AI một cách triệt để, không chỉ “nâng cấp” các chiêu trò lừa đảo trực tuyến quen thuộc mà còn đẩy hành vi đánh cắp danh tính lên mức tinh vi và nguy hiểm hơn bao giờ hết.

Viễn cảnh kẻ lừa đảo dùng AI để tạo ra những bản sao gần như hoàn hảo của bạn hoặc người thân, hay cá nhân hóa kịch bản lừa đảo theo đúng sở thích, thói quen của từng nạn nhân, thực sự khiến nhiều người rùng mình.
Dù vậy, cũng giống như các hình thức lừa đảo truyền thống, những chiêu trò được hỗ trợ bởi AI vẫn để lộ dấu vết. AI rất mạnh, nhưng không phải “bất khả chiến bại”. Khi người dùng hiểu rõ các dấu hiệu bất thường và duy trì những nguyên tắc an toàn cơ bản, ngay cả các chiêu lừa tinh vi nhất cũng khó có cơ hội đánh cắp tiền bạc hay danh tính.
1. Lừa đảo giả mạo danh tính qua email
Lừa đảo qua email (phishing) vốn đã là mối đe dọa quen thuộc, nhưng khi được “trang bị” trí tuệ nhân tạo, mức độ nguy hiểm tăng lên rõ rệt. Thay vì những email đầy lỗi chính tả hay nội dung vụng về như trước đây, kẻ gian giờ có thể tạo ra các email giả mạo gần như giống hệt thông báo chính thức của ngân hàng, sàn thương mại điện tử hay mạng xã hội.
Bằng cách “huấn luyện” AI với hàng loạt thông cáo, email chăm sóc khách hàng và nội dung truyền thông công khai của các thương hiệu lớn, kẻ lừa đảo dễ dàng tạo ra những thông điệp có giọng điệu, cấu trúc và cách dùng từ rất thuyết phục. Người nhận chỉ cần sơ ý nhấp vào một đường link giả và nhập thông tin đăng nhập, hậu quả có thể là mất tài khoản hoặc tiền trong tích tắc.
Cách tự bảo vệ:
- So sánh email nghi ngờ với các email cũ từng nhận từ cùng thương hiệu.
- Kiểm tra kỹ địa chỉ người gửi, chỉ cần khác một ký tự cũng là dấu hiệu nguy hiểm.
- Không nhấp link, không tải tệp đính kèm từ email không được yêu cầu trước.
2. Lừa đảo nhắm mục tiêu và tạo ra danh tính giả
Không dừng lại ở lừa đảo hàng loạt, AI còn giúp kẻ gian cá nhân hóa chiêu trò ở mức rất sâu. Với lừa đảo nhắm mục tiêu (spear phishing), thông tin công khai trên mạng xã hội như sở thích, công việc, bạn bè hay thói quen mua sắm của bạn có thể bị AI tổng hợp để tạo ra thông điệp “đánh trúng tâm lý”.
Trong khi đó, lừa đảo bằng cách tạo ra danh tính giả (catfishing) để tiếp cận và chiếm đoạt tiền, thường gặp trong các vụ lừa đảo tình cảm cũng trở nên nguy hiểm hơn nhờ AI. Kẻ lừa đảo có thể tạo ra một “nhân vật ảo” có sở thích, quan điểm và cách trò chuyện gần như hoàn hảo với bạn, khiến nạn nhân khó nghi ngờ.
Nguy hiểm hơn, AI còn có thể được dùng để tạo bản sao danh tính của chính bạn, từ đó tiếp cận bạn bè hoặc người thân nhằm vay tiền, nhờ chuyển khoản khẩn cấp.
Cách tự bảo vệ:
- Luôn cảnh giác với người lạ chủ động nhắn tin riêng.
- Cắt liên lạc ngay nếu đối phương đề cập đến tiền bạc, đầu tư hoặc tiền điện tử.
- Thiết lập một kênh liên lạc thứ hai để bạn bè, người thân xác minh khi có nghi ngờ.
3. Lừa đảo bằng cách nhân bản giọng nói
Một trong những chiêu lừa qua điện thoại lâu đời là gọi cho nạn nhân và nói mơ hồ “là tôi đây”, chờ đối phương tự xưng tên người quen. Trước đây, giọng nói khác biệt thường là điểm yếu khiến chiêu trò này dễ bị phát hiện. Nhưng với AI, điểm yếu đó đang dần biến mất.
Chỉ cần vài đoạn ghi âm giọng nói từ video trên mạng xã hội, AI có thể phân tích và tạo ra bản sao giọng nói khá thuyết phục, từ âm sắc đến cách nói. Những bản sao này đã được dùng để lừa tiền người thân, thậm chí dựng kịch bản giả bắt cóc để đòi tiền chuộc.
Cách tự bảo vệ:
- Luôn gọi lại qua một số khác khi nhận cuộc gọi khẩn cấp đáng ngờ.
- Đặt câu hỏi riêng tư mà chỉ bạn và người thật biết, không công khai trên mạng.
- Nếu đối phương né tránh, mất bình tĩnh hoặc gây áp lực, hãy cúp máy ngay.
4. Lừa đảo bằng cách tạo ra video giả mạo
Không chỉ giọng nói, AI còn có khả năng tạo video giả mạo (deepfake) với độ chân thực cao. Kẻ lừa đảo thường nhắm vào người nổi tiếng, doanh nhân hoặc người có nhiều video công khai để tạo các đoạn clip giả, sau đó dùng làm mồi nhử cho quà tặng, đầu tư hoặc tin nhắn riêng tư.
Đã có trường hợp nạn nhân bị lừa chỉ vì tin rằng mình đang tham gia cuộc họp trực tuyến với lãnh đạo cấp cao nhưng tất cả đều là deepfake. Trong tương lai, nguy cơ này có thể lan rộng sang cả những cá nhân bình thường nếu họ chia sẻ quá nhiều video cá nhân.
Cách tự bảo vệ:
- Không tin video từ tài khoản không chính thức, dù hình ảnh rất giống người thật.
- Cảnh giác với liên lạc trực tiếp không được yêu cầu.
- Nếu gọi video để xác minh, hãy yêu cầu đối phương quay đầu, giơ tay hoặc thực hiện động tác phức tạp vì deepfake thường “lộ tẩy” ở những chi tiết này.
Tóm lại, AI không phải kẻ thù nhưng trong tay kẻ xấu, nó trở thành công cụ lừa đảo cực kỳ nguy hiểm. Nhận diện sớm các dấu hiệu bất thường, hạn chế chia sẻ thông tin cá nhân và luôn có phương án xác minh độc lập chính là “lá chắn” hiệu quả nhất để bảo vệ tiền bạc và danh tính của bạn trong kỷ nguyên AI./.


