Lừa đảo bằng công nghệ deepfake sẽ gia tăng trong năm 2024
(Baonghean.vn)- Theo công ty xác minh dữ liệu Sumsub (Vương quốc Anh), số lượng deepfake trên toàn thế giới đã tăng 10 lần trong giai đoạn 2022 - 2023, trong đó số lượng deepfake ở khu vực Châu Á – Thái Bình Dương (APAC) tăng 1.530%.
Deepfake là gì?
Deepfake là thuật ngữ được tạo nên với sự kết hợp của “Deep Learning” (học sâu) và “Fake” (giả mạo), là công nghệ mô phỏng hình ảnh khuôn mặt con người và tạo ra các sản phẩm âm thanh, hình ảnh hoặc thậm chí là cả video giả. Người tạo deepfake có thể thao túng phương tiện truyền thông và thay thế nó bằng ngoại hình của một người thật.
Về bản chất, công nghệ deepfake được xây dựng trên nền tảng công nghệ học máy mã nguồn mở của hãng công nghệ Google. Deepfake sẽ quét video và ảnh chân dung của một người, sau đó hợp nhất với video riêng biệt nhờ công nghệ trí tuệ nhân tạo (AI) và thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói như thật.
Càng có nhiều hình ảnh gốc thì AI càng có nhiều dữ liệu để học và tạo ra các hình ảnh hoặc video giả chân thực hơn. Deepfake có thể gán khuôn mặt của người này sang người khác trong video với độ chân thực đến kinh ngạc.
Deepfake sẽ gia tăng trong năm bầu cử 2024
Việc sử dụng deepfake để giả mạo các chính trị gia ngày càng trở nên phổ biến, nhất là khi năm 2024 là năm bầu cử toàn cầu lớn nhất trong lịch sử.
Theo báo cáo, có ít nhất 60 quốc gia và hơn 4 tỷ người trên thế giới sẽ đi bầu lãnh đạo và đại diện của họ trong năm nay, điều này khiến vấn đề deepfake trở thành mối quan ngại nghiêm trọng.
Theo báo cáo của Sumsub, các phương tiện truyền thông trực tuyến, bao gồm các nền tảng mạng xã hội và quảng cáo kỹ thuật số đã ghi nhận mức tăng cao nhất về giả mạo danh tính trong giai đoạn 2021 - 2023, với tỉ lệ 274%. Các ngành công nghiệp như dịch vụ chăm sóc sức khỏe, vận tải và trò chơi điện tử cũng nằm trong số những ngành bị ảnh hưởng bởi giả mạo danh tính.
Bên cạnh đó, trong một báo cáo về mối đe dọa toàn cầu năm 2024, công ty công nghệ an ninh mạng CrowdStrike (Mỹ) cho biết với lượng lớn các cuộc bầu cử sắp diễn ra trong năm nay, có thể xuất hiện các thông tin sai lệch và hoặc thông tin giả mạo để gieo rắc sự bất ổn.
Theo đó, trước cuộc bầu cử diễn ra tại Indonesia vào ngày 14/2 vừa qua, mạng xã hội đã lan truyền một đoạn video ghi lại cảnh cố Tổng thống Suharto ủng hộ đảng chính trị mà ông từng chủ trì. Tuy nhiên, đoạn video này được xác định là deepfake do AI tạo ra, đã sao chép toàn bộ khuôn mặt và giọng nói của ông. Video deepfake này đã thu hút 4,7 triệu lượt xem, chỉ tính trên nền tảng mạng xã hội X (Twitter trước đây).
Đây không phải lần đầu tiên mà các video deepfake xuất hiện như vậy. Ở Pakistan, một cú lừa deepfake về cựu Thủ tướng Imran Khan cũng xảy ra ngay trong thời gian bầu cử, với nội dung đảng của ông sẽ tẩy chay cuộc bầu cử. Trong khi đó, tại Mỹ, các cử tri ở tiểu bang New Hampshire bỗng dưng đọc được một bản tin giả về việc Tổng thống Joe Biden yêu cầu họ không được tham gia bỏ phiếu trong cuộc bầu cử sơ bộ.
Giới chuyên gia nhận định hầu hết các sản phẩm deepfake được tạo ra bởi các tác nhân trong mỗi quốc gia. Bà Carol Soon, Nhà nghiên cứu kiêm Trưởng bộ phận văn hoá và xã hội Viện Nghiên cứu chính sách Singapore cho biết các tác nhân trong nước có thể bao gồm các phe đối lập và đối thủ chính trị, hoặc những người cực hữu và cánh tả.
Trong khi đó, ông Simon Chesterman, Giám đốc cấp cao về quản trị dự án AI của Chương trình AI quốc gia Singapore cho biết, châu Á hiện chưa sẵn sàng để giải quyết vấn đề deepfake trong các cuộc bầu cử xét trên ba phương diện pháp lý, công nghệ và giáo dục.
Mối nguy hiểm do deepfake gây ra là gì?
Nhận định về những nguy hiểm do deepfake gây ra, bà Carol Soon cho rằng ở mức độ tối thiểu, deepfake gây ô nhiễm hệ sinh thái thông tin và làm cho mọi người khó tìm thấy thông tin chính xác, khó hình thành ý kiến có cơ sở về một đảng hoặc ứng cử viên.
Liên quan đến vấn đề này, ông Simon Chesterman cho biết cử tri cũng có thể quay lưng với một ứng cử viên cụ thể nếu họ thấy nội dung về một vấn đề tai tiếng lan truyền nhanh chóng trên mạng xã hội trước khi nó bị vạch trần là tin giả. Mặc dù một số chính phủ đã có các công cụ để ngăn chặn thông tin sai lệch trực tuyến, nhưng mối lo ngại ở đây là sự thật sẽ bị bóp méo trước khi kịp thời đính chính.
“Chúng ta đã thấy X (trước đây gọi là Twitter) có thể bị nội dung khiêu dâm deepfake liên quan đến nữ ca sĩ Taylor Swift chiếm lĩnh nhanh chóng như thế này. Những thứ này có thể lan truyền cực kỳ nhanh chóng”, ông Chesterman nói thêm rằng các biện pháp giải quyết thường không đủ và cực kỳ khó thực thi. “Thường thì đã quá muộn”.
Adam Meyers, đến từ công ty công nghệ an ninh mạng CrowdStrike, nói rằng deepfake cũng có thể gợi nên sự thiên kiến xác nhận, một hiệu ứng trong quá trình xử lý thông tin, ở con người. “Ngay cả khi trong thâm tâm họ biết điều đó không đúng, họ vẫn sẽ chấp nhận nếu đó là thông điệp họ muốn và là điều họ muốn tin”, ông giải thích.
Nói thêm về các lo ngại, ông Chesterman cho rằng một đoạn phim giả mạo ghi lại hành vi sai trái trong kỳ bầu cử như nhồi phiếu, có thể khiến các cử tri mất niềm tin vào tính hợp lệ của cuộc bầu cử.
Còn theo bà Soon, các ứng viên có thể phủ nhận sự thật về bản thân họ, bằng cách tuyên bố rằng những thông tin xấu về họ đều là giả mạo.
Các công ty công nghệ hàng đầu cam kết nổ lực chống lại deepfake
Tháng 2 vừa qua, 20 công ty công nghệ hàng đầu, bao gồm Microsoft, Meta, Google, Amazon, IBM cùng với công ty trí tuệ nhân tạo OpenAI và các công ty truyền thông xã hội như Snap, TikTok và X đã đồng thuận cam kết chung nhằm chống lại việc sử dụng trí tuệ nhân tạo với mục đích gian lận trong cuộc bầu cử năm nay.
Cam kết chung được ký kết là bước đi quan trọng đầu tiên, nhưng hiệu quả của nó còn phụ thuộc vào việc triển khai và thực thi. Theo bà Soon, để làm được điều này, cần có cách tiếp cận đa hướng cho các công ty công nghệ trong việc áp dụng các biện pháp khác nhau trên nền tảng của họ. Các công ty công nghệ đồng thời cần đảm bảo tính minh bạch về quyết định được đưa ra, ví dụ như các quy trình được áp dụng.
Tuy nhiên, theo ông Simon Chesterman thì không nên quá kỳ vọng vào việc các công ty tư nhân thực hiện những chức năng cộng đồng cơ bản. Việc quyết định nội dung nào được phép xuất hiện trên mạng xã hội là một quyết định khó khăn, thậm chí có công ty có thể mất nhiều tháng để đưa ra quyết định.
Để đạt được mục tiêu này, Liên minh Chứng minh và Xác thực nội dung (C2PA), đã giới thiệu nền tảng chuyên xác thực thông tin kỹ thuật số cho nội dung. Nền tảng này cho phép người xem nhận các thông tin đã được xác minh như thông tin về người sáng tạo, nguồn gốc và thời gian tạo ra, cũng như tính tổng quát của thông tin đó hoặc thông tin có phải được tạo ra bởi AI hay không.
Các công ty thành viên của C2PA bao gồm Adobe, Microsoft, Google và Intel. Công ty OpenAI đã thông báo rằng họ sẽ triển khai công nghệ xác thực thông tin C2PA cho các hình ảnh được tạo ra bằng mô hình ngôn ngữ tạo hình ảnh DALL·E 3 vào đầu năm nay.
Trong một cuộc phỏng vấn với tờ Bloomberg House tại Diễn đàn Kinh tế thế giới hồi tháng 1 vừa qua, ông Sam Altman, nhà sáng lập kiêm Giám đốc điều hành của công ty OpenAI cho biết, công ty đang tập trung mạnh vào việc đảm bảo công nghệ của họ không bị sử dụng dưới mục đích thao túng các cuộc bầu cử.
Ông Adam Meyers, đến từ công ty công nghệ an ninh mạng CrowdStrike đề xuất thành lập một tổ chức kỹ thuật phi lợi nhuận, không phân biệt đảng phái, có nhiệm vụ phân tích và xác định các deepfake. “Công chúng có thể gửi cho tổ chức những nội dung mà họ nghi ngờ là đã có sự can thiệp. Mặc dù đây không phải điều dễ truyền đạt, nhưng ít nhất cũng có một số cơ chế mà mọi người có thể tin tưởng”, ông Meyers nói.
Nhưng cuối cùng, mặc dù công nghệ là một phần của giải pháp nhưng phần lớn nó lại thuộc về người dùng. Công chúng cần cảnh giác hơn, bên cạnh việc kiểm tra tính xác thực khi có điều gì đó rất đáng ngờ, người dùng cũng cần kiểm tra tính xác thực của những thông tin quan trọng, đặc biệt là trước khi chia sẻ thông tin đó với người khác.