Chuyển đổi số

Cảnh báo chiêu trò lừa đảo tinh vi qua điện thoại bằng công nghệ giả giọng nói

Phan Văn Hòa 24/03/2025 12:12

Bạn có bao giờ nghĩ rằng giọng nói của mình có thể bị sao chép và sử dụng để lừa đảo người khác? Đây không phải là chuyện viễn tưởng, mà là một thực tế đáng báo động. Hãy cùng tìm hiểu về chiêu trò lừa đảo tinh vi này và cách để bảo vệ bản thân.

Trong thời gian gần đây, hàng loạt cảnh báo về rủi ro bảo mật do trí tuệ nhân tạo (AI) gây ra đã được đưa ra, từ những đoạn mã độc có thể đánh cắp thông tin đăng nhập đến các cuộc tấn công tinh vi nhắm vào người dùng di động.

Ảnh minh họa
Ảnh minh họa.

Tuy nhiên, mối lo ngại lớn nhất hiện nay chính là các cuộc tấn công lừa đảo deepfake nhắm vào người dùng điện thoại thông minh, bất chấp những nỗ lực mạnh mẽ từ Google, Apple và các công ty công nghệ khác nhằm tăng cường bảo vệ.

Thực tế, những cuộc tấn công này tinh vi đến mức ngay cả các chuyên gia bảo mật, bao gồm cả Cục Điều tra liên bang Mỹ (FBI) cũng phải lên tiếng cảnh báo công chúng: "Hãy cúp máy ngay lập tức và thiết lập một mã bí mật để bảo vệ mình". Dưới đây là những gì bạn cần biết để tránh trở thành nạn nhân.

FBI và các chuyên gia cảnh báo: Deepfake đang nhắm vào người dùng điện thoại

Khi nhắc đến deepfake, nhiều người thường chỉ nghĩ đến các video hoán đổi khuôn mặt, nhưng thực tế mối đe dọa còn rộng lớn hơn nhiều. Một trong những phương thức lừa đảo nguy hiểm nhất hiện nay là giả giọng nói bằng AI, một công nghệ đang ngày càng trở nên phổ biến và dễ tiếp cận.

Adrianus Warmenhoven, chuyên gia an ninh mạng tại công ty bảo mật NordVPN (Litva) nhấn mạnh rằng, tội phạm mạng đang tận dụng công nghệ sao chép giọng nói để thực hiện các chiêu trò lừa đảo qua điện thoại.

Ảnh minh họa1
Tội phạm mạng đang tận dụng công nghệ sao chép giọng nói để thực hiện các chiêu trò lừa đảo qua điện thoại. Ảnh: Internet

"Những kẻ lừa đảo sử dụng công nghệ này để gọi điện cho người thân của nạn nhân, giả danh họ và dựng lên một tình huống khẩn cấp nhằm tống tiền", ông Warmenhoven giải thích.

Một báo cáo mới đây tiết lộ rằng, chỉ riêng tại Mỹ, hơn 50 triệu người đã trở thành nạn nhân của các vụ lừa đảo qua điện thoại trong vòng 12 tháng qua, với thiệt hại trung bình lên tới 452 USD/người.

Ông Warmenhoven cảnh báo: "Deepfake đang thay đổi hoàn toàn cách thức các cuộc gọi lừa đảo diễn ra, khiến chúng trở nên khó phát hiện hơn bao giờ hết".

Công nghệ AI: Công cụ mới của tội phạm mạng

Cơ quan Cảnh sát châu Âu (Europol) cũng đã lên tiếng cảnh báo về sự gia tăng của các cuộc tấn công được hỗ trợ bởi AI, cho thấy rằng tội phạm mạng đang dần trở thành "những doanh nghiệp tội phạm công nghệ cao".

Theo Catherine De Bolle, Giám đốc điều hành Europol, những tổ chức này ngày càng thích nghi và nguy hiểm hơn nhờ vào công nghệ AI. Báo cáo mới nhất của Europol khẳng định: "AI đang tái định hình hoàn toàn bối cảnh tội phạm có tổ chức, giúp chúng tự động hóa và mở rộng các hoạt động phạm pháp với quy mô lớn hơn, tinh vi hơn và khó bị phát hiện hơn".

Evan Dornbush, cựu chuyên gia an ninh mạng của Cơ quan An ninh Quốc gia Mỹ (NSA) nhận định: "Giá trị lớn nhất của AI không phải là sáng tạo hay thông minh hơn, mà là khả năng thực hiện mọi thứ nhanh hơn. Kẻ tấn công có thể tạo ra những kịch bản lừa đảo thuyết phục gấp đôi trong thời gian ngắn hơn và liên tục tinh chỉnh để đạt hiệu quả tối đa".

Để đối phó với những tội phạm này, De Bolle nhấn mạnh: "Chúng ta cần phá vỡ hệ thống tài chính và chuỗi cung ứng của chúng, đồng thời đón đầu công nghệ để ngăn chặn các mạng lưới tội phạm phát triển mạnh hơn nữa".

FBI hướng dẫn người dùng điện thoại cách tự bảo vệ trước lừa đảo deepfake

Trước tình trạng deepfake giọng nói ngày càng phổ biến, FBI đã ban hành cảnh báo, với những khuyến nghị cụ thể để giảm thiểu rủi ro:

- Cúp máy ngay lập tức nếu bạn nhận được cuộc gọi từ một người tự xưng là thành viên gia đình hoặc bạn bè yêu cầu chuyển tiền khẩn cấp.

- Xác minh danh tính của người gọi bằng cách liên hệ trực tiếp với họ hoặc thông qua người thân khác.

- Thiết lập một mã bí mật mà chỉ bạn và những người thân cận biết, để sử dụng trong trường hợp cần xác minh danh tính.

- Hạn chế chia sẻ giọng nói trên mạng xã hội, vì đây là nguồn dữ liệu lớn nhất để AI thu thập và tạo deepfake giọng nói.

Chuyên gia an ninh mạng Warmenhoven nhấn mạnh: "Mạng xã hội là kho lưu trữ giọng nói công khai khổng lồ mà tội phạm mạng có thể khai thác. Hãy cẩn trọng với những gì bạn chia sẻ để tránh trở thành mục tiêu của deepfake và các hình thức lừa đảo khác".

Tóm lại, công nghệ AI mang lại nhiều lợi ích, nhưng cũng mở ra cánh cửa cho những rủi ro chưa từng có. Khi deepfake ngày càng trở nên tinh vi, điều quan trọng là mỗi cá nhân cần nâng cao nhận thức, chủ động bảo vệ bản thân và gia đình khỏi những mối đe dọa tiềm ẩn.

Hãy luôn cảnh giác và thực hiện các biện pháp bảo vệ ngay từ bây giờ để không trở thành nạn nhân tiếp theo của những kẻ lừa đảo công nghệ cao.

Theo Forbes
Copy Link

Nổi bật Báo Nghệ An

Mới nhất

x
Cảnh báo chiêu trò lừa đảo tinh vi qua điện thoại bằng công nghệ giả giọng nói
POWERED BY ONECMS - A PRODUCT OF NEKO