Blog

Làm thế nào để chống lại Deepfake trong thời đại công nghệ AI

Hiện nay, kẻ tấn công đang lợi dụng các mô hình ngôn ngữ lớn (Large Language Models – LLMs) để mạo danh và tự động hóa các chiến thuật lừa đảo xã hội (social engineering) trên diện rộng. Bài viết này tập trung vào tình hình hiện tại của các cuộc tấn công này, và các biện pháp ngăn chặn chúng – chứ không chỉ đơn thuần là phát hiện.

Các báo cáo tình báo về mối đe dọa gần đây cho thấy sự tinh vi và phổ biến ngày càng gia tăng của các cuộc tấn công sử dụng AI:

  • Bùng nổ lừa đảo bằng giọng nói (Voice Phishing Surge): Theo Báo cáo Đe dọa Toàn cầu năm 2025 của CrowdStrike, các cuộc tấn công lừa đảo bằng giọng nói (vishing) đã tăng 442% từ nửa đầu đến nửa cuối năm 2024, do các kỹ thuật giả mạo và lừa đảo dựa trên AI.
  • Sự phổ biến của kỹ thuật Social Engineering: Báo cáo Điều tra Vi phạm Dữ liệu năm 2025 của Verizon chỉ ra rằng social engineering vẫn là một trong những phương pháp phổ biến nhất trong các vụ vi phạm, với phishing và pretexting chiếm tỷ lệ đáng kể.
  • Chiến dịch deepfake của Triều Tiên: Các nhóm hacker Triều Tiên đã được ghi nhận sử dụng công nghệ deepfake để tạo danh tính giả nhằm tham gia phỏng vấn việc làm từ xa với mục đích giành được vị trí và xâm nhập vào tổ chức.

Trong kỷ nguyên mới này, sự tin tưởng không thể chỉ dựa vào cảm tính hoặc phỏng đoán – mà cần được xác minh một cách rõ ràng, chính xác và ngay lập tức. Có 3 lý do chính khiến việc mạo danh bằng AI đang trở thành một phương thức tấn công phổ biến:

  • AI làm giảm chi phí cho các cuộc lừa đảo: Với những công cụ tạo giọng nói và video mã nguồn mở, kẻ tấn công có thể mạo danh bất kỳ ai chỉ với một vài mẫu dữ liệu.
  • Làm việc từ xa qua mạng để lộ ra những khoảng trống về niềm tin: Các công cụ như Zoom, Teams hay Slack thiếu cơ chế xác thực danh tính giữa chủ tài khoản và người thực sự sử dụng tài khoản.
  • Các biện pháp phòng thủ thường dựa trên xác suất thay vì bằng chứng: Các công cụ phát hiện deepfake sử dụng các dấu hiệu trên khuôn mặt và phân tích để đoán xem một người có thật hay không. Điều này là không đủ trong môi trường rủi ro cao. Mặc dù các công cụ bảo mật đầu cuối và chương trình đào tạo người dùng có thể hỗ trợ giảm thiểu rủi ro, nhưng chúng không được thiết kế để đưa ra câu trả lời ngay lập tức cho một vấn đề cốt lõi: liệu người đang tương tác có thực sự đáng tin cậy hay không.

Các biện pháp phòng thủ truyền thống tập trung vào việc phát hiện – ví dụ như đào tạo người dùng nhận biết các hành vi đáng ngờ hoặc sử dụng AI để phân tích xem ai đó có phải là giả mạo hay không. Nhưng deepfake đang trở nên quá giỏi và quá nhanh. Bạn không thể chống lại sự giả mạo do AI tạo ra bằng các công cụ dựa trên xác suất.

Việc ngăn chặn thực sự đòi hỏi một nền tảng khác, dựa trên những thứ có thể chứng minh được, chứ không phải giả định. Điều này bao gồm:

  • Xác minh danh tính (Identity Verification): Chỉ những người dùng đã được xác minh và ủy quyền mới có thể tham gia các cuộc họp hoặc trò chuyện nhạy cảm, dựa trên chứng chỉ mật mã học, chứ không phải mật khẩu hay mã xác thực.
  • Kiểm tra tính toàn vẹn thiết bị (Device Integrity Checks): Nếu thiết bị của người dùng bị nhiễm mã độc, bị jailbreak hoặc không tuân thủ chính sách, nó vẫn có thể là điểm xâm nhập cho kẻ tấn công – ngay cả khi danh tính đã được xác minh. Hãy chặn các thiết bị này khỏi các cuộc họp cho đến khi vấn đề được khắc phục.
  • Chỉ báo niềm tin hiển thị (Visible Trust Indicators): Những người tham gia khác cần thấy bằng chứng rõ ràng rằng mỗi người trong cuộc họp đúng là người mà họ nói và đang sử dụng thiết bị an toàn.

Ngăn chặn có nghĩa là tạo ra các điều kiện mà việc mạo danh không chỉ là khó khăn mà là bất khả thi. Đó là cách bạn ngăn chặn các cuộc tấn công deepfake AI ngay trước khi chúng tham gia vào các cuộc trò chuyện rủi ro cao như các cuộc họp hội đồng quản trị, giao dịch tài chính hoặc hợp tác với nhà cung cấp.

Chúng tôi khuyến nghị các tổ chức và cá nhân một số cách để phòng chống các chiến dịch tấn công nguy hiểm này:

  • Xác thực danh tính mạnh: Ưu tiên sử dụng cơ chế xác minh danh tính dựa trên các bằng chứng có thể kiểm chứng được (ví dụ: chứng chỉ mật mã học), thay vì chỉ phụ thuộc vào mật khẩu hoặc mã truy cập.
  • Đánh giá tính toàn vẹn thiết bị đầu cuối: Thiết lập các cơ chế kiểm tra mức độ an toàn và tuân thủ của thiết bị trước khi cho phép tham gia vào các phiên làm việc nhạy cảm, nhằm giảm thiểu nguy cơ từ các thiết bị không đáng tin cậy.
  • Hiển thị chỉ báo xác minh rõ ràng: Cung cấp các tín hiệu nhận diện minh bạch, giúp người dùng xác định danh tính và mức độ an toàn của các đối tượng tham gia trong môi trường cộng tác số.
  • Thiết kế hệ thống theo hướng phòng ngừa chủ động: Hạn chế tối đa khả năng mạo danh ngay từ đầu bằng cách thiết lập các điều kiện mà trong đó hành vi giả mạo trở nên bất khả thi, thay vì chỉ phát hiện sau khi vi phạm đã xảy ra.

Bài viết liên quan