Deepfake: Mối đe dọa an ninh đằng sau khuôn mặt nhân tạo

Sự phát triển của công nghệ hiện đại đã mang lại nhiều sự đổi mới, và một trong những công nghệ mới đang làm rung chuyển nghành truyền thông là deepfake. DeepFake là video, hình ảnh hoặc bản ghi âm đã được xử lý bằng công nghệ AI. Nói một cách dễ hiểu, thì sẽ biến người đang trong video thành người khác bằng cách ghép khuôn mặt, giọng nói, khẩu hình miệng,…

Deepfake: Mối đe dọa an ninh bảo mật đằng sau khuôn mặt nhân tạo

Nội dung của Deepfake có tính thuyết phục cao và sự phát triển không ngừng của công nghệ deepfake khiến việc phân biệt giữa nội dung thật và giả trở nên khó khăn hơn. Mặc dù công nghệ deepfake vẫn còn tương đối mới, nhưng chúng ta vẫn thấy vai trò của nó trong các xu hướng lừa đảo và tội phạm mạng. Điều này đã trở thành mối quan tâm ngày càng tăng của người tiêu dùng và các tổ chức, vì tội phạm lừa đảo lợi dụng deepfake để thực hiện các cuộc tấn công social engineering, lan truyền thông tin sai lệch.

Thiệt hại của các vụ lừa đảo deepfake ước tính đã vượt quá 250 triệu đô la vào năm 2020 và công nghệ này vẫn đang ở giai đoạn đầu. Không nghi ngờ gì khi công nghệ deepfake phát triển, thì sự tinh vi của các bọn tội phạm khai thác công nghệ cũng phát triển theo.

Deepfake là gì?

Deepfake là một dạng phương tiện truyền thông được ghép một hình ảnh hoặc video hiện có bằng nội dung do AI tạo ra cho giống với giọng nói hoặc ngoại hình của ai đó. Thường được gọi là một dạng “phương tiện truyền thông tổng hợp”, DeepFake bắt chước khuôn mặt, chuyển động và giọng nói của mọi người với độ chính xác đến mức không thể phân biệt được đâu là thật.

Nhờ các thuật toán machine learning tinh vi, sinh trắc học như nét mặt và cao độ của giọng nói con người có thể được điều khiển để tạo ra những biểu cảm và hành động về các sự kiện chưa từng diễn ra. Mặc dù không phải tất cả các deepfake đều được sử dụng với mục đích xấu, nhưng hình thức mạo danh kỹ thuật số này thường được sử dụng để tạo video giả mạo và các bản ghi âm về những người đang làm hoặc nói những điều độc hại.

Công nghệ Deepfake hoạt động như thế nào?

Yếu tố quan trọng nhất để tạo ra công nghệ deepfake là Machine Learning. DeepFake dựa trên hệ thống máy tính AI được gọi là mạng thần kinh nhân tạo, dựa trên não người và được thiết kế để nhận dạng các mẫu dữ liệu. Đây là cách bắt đầu tạo ra deepfake.

Để tạo một video deepfake, người sáng tạo bắt đầu bằng cách cung cấp hàng trăm giờ video thực cho mạng nơ-ron nhân tạo để “huấn luyện” máy tính xác định các đặc điểm chi tiết của con người. Nhằm để cung cấp cho thuật toán thông tin thực tế về người đó trông như thế nào từ các góc độ khác nhau.

Bước tiếp theo bao gồm việc kết hợp mạng nơ-ron được đào tạo với các kỹ thuật đồ họa máy tính để ghép lên cảnh quay thực của người khác và giọng nói do AI tổng hợp.

Trong khi nhiều người tin rằng việc tạo ra video deepfake đòi hỏi các công cụ phức tạp và kỹ năng chuyên môn, nhưng sự thật không phải vậy — chúng có thể được tạo ra ngay cả với các kỹ năng đồ họa máy tính cơ bản. Những video thuyết phục hơn đòi hỏi nhiều kỹ thuật nâng cao hơn, nhưng tất cả những gì bạn thực sự cần là quyền truy cập vào cảnh quay video hoặc âm thanh của ai đó. Điều này rất dễ làm được với số lượng dữ liệu khủng lồ hiện nay, dẫn đến lượng tài liệu dồi dào để cung cấp cho thuật toán và tạo ra một video deepfake thực tế.

3 loại rủi ro đến từ Deepfake

Sự tiến bộ nhanh chóng của công nghệ deepfake đã tạo ra cơ hội cho những tên tội phạm công nghệ có thể gây ra những tổn hại nghiêm trọng về mặt tài chính. Từ việc đánh cắp danh tính và lan truyền thông tin sai lệch công khai đến tống tiền doanh nghiệp, lừa đảo và tấn công mạng tự động, công nghệ deepfake đã tạo ra một loại phương tiện truyền thông mới mà những kẻ xấu đang sử dụng để chuộc lợi. Dưới đây là một số cách bọn tội phạm sử dụng deepfake.

Lừa đảo ma

Lừa đảo ma xảy ra khi một tên tội phạm đánh cắp dữ liệu của một người đã qua đời và mạo danh họ để thu lợi tài chính. Danh tính bị đánh cắp có thể được sử dụng để truy cập vào các dịch vụ và tài khoản trực tuyến hoặc để đăng ký những thứ như thẻ tín dụng và khoản vay.

Lừa đảo tài khoản mới

Còn được gọi là gian lận ứng dụng, lừa đảo tài khoản mới liên quan đến việc sử dụng danh tính bị đánh cắp hoặc giả mạo cho mục đích mở tài khoản ngân hàng mới. Một khi tội phạm đã mở tài khoản, chúng có thể gây ra thiệt hại tài chính nghiêm trọng bằng cách sử dụng thẻ tín dụng hoặc vay tiền mà không có ý định trả lại.

Lừa đảo danh tính tổng hợp

Lừa đảo danh tính tổng hợp là một phương pháp lừa đảo phức tạp hơn và thường khó phát hiện hơn. Thay vì khai thác danh tính bị đánh cắp của một người, bọn tội phạm khai thác thông tin và danh tính của nhiều người để tạo ra một “người” không thực sự tồn tại. Danh tính này sau đó được sử dụng cho các giao dịch lớn hoặc các ứng dụng tín dụng mới.

Ví dụ về các cuộc tấn công Deepfake

Những tiến bộ mới gần đây đã giảm đáng kể lượng thời gian và dữ liệu cần thiết để tạo ra các bản DeepFake có độ chính xác cao. Khi DeepFake trở nên dễ tiếp cận hơn, số lượng các cuộc tấn công cũng sẽ tiếp tục tăng lên. Các ví dụ dưới đây sẽ cho bạn cái nhìn về khả năng của công nghệ deepfake.

Lừa đảo công ty năng lượng

Vụ lừa đảo deepfake từ năm 2019 này là cuộc tấn công deepfake đầu tiên và nó cho mọi người biết mặt tối của công nghệ deepfake. Giám đốc điều hành của một công ty năng lượng đã nhận được một cuộc điện thoại từ người mà anh ta nghĩ là sếp và giám đốc điều hành của công ty. Trên thực tế, giọng nói đó thực sự là giọng do AI tạo ra và đó là lý do tại sao anh ta nhanh chóng đồng ý với yêu cầu khẩn cấp chuyển 243.000 đô la trong vòng một giờ.

Lừa đảo công ty công nghệ

Trong nỗ lực thử nghiệm âm thanh deepfake không thành công từ năm 2020, một nhân viên của công ty công nghệ đã nhận được một thư thoại lạ từ một người có vẻ giống như Giám đốc điều hành của công ty. Yêu cầu “hỗ trợ ngay lập tức để hoàn tất một thỏa thuận kinh doanh khẩn cấp” và nhân viên đã nghi ngờ rồi đưa cho bộ phận pháp lý của công ty.

Mặc dù cuộc tấn công deepfake này cuối cùng không thành công, nhưng đó là một vụ tấn công điển hình mà chúng ta sẽ thấy nhiều hơn khi các tiến bộ công nghệ trở nên phổ biến hơn.

Đã xuất hiện tình trạng DeepFake Lừa đảo ở Việt Nam

Mình vừa đọc được vài bài báo mới đây, ại Việt Nam có một đối tượng đã lừa đảo các nghệ sỹ để làm tick xanh Facebook, qua đó chiếm đoạt tài khoản và lừa tiền của những người thân của nghệ sỹ đó. “Đặc biệt, nhóm tội phạm này sử dụng công nghệ để giả mạo hình ảnh chủ sở hữu facebook trong các cuộc gọi với nạn nhân, đồng thời mở tài khoản ngân hàng trùng tên với chủ tài khoản facebook để tạo dựng niềm tin với nạn nhân và đề nghị chuyển tiền vào các tài khoản này để chiếm đoạt.”

Làm thế nào để phát hiện một vụ lừa đảo Deepfake

Mặc dù kẻ lừa đảo trong cuộc tấn công deepfake thường giả dạng thành giám đốc, nhưng giọng điệu nhẹ nhàng của deepfake khiến nhân viên nghi ngờ. Một số dấu hiệu tương tự có thể giúp bạn nhận ra đó là công nghiệp deepfake bao gồm:

  • Nhịp điệu nói không tự nhiên
  • Giai điệu giống robot
  • Nháy mắt hoặc chuyển động không tự nhiên
  • Chuyển động của môi không đồng bộ với lời nói
  • Chất lượng âm thanh hoặc video kém

Các tổ chức có thể an toàn trước cuộc tấn công deepfake chủ yếu bằng cách đào tạo nhân viên của họ bằng cách nhận biết thông qua âm thanh hoặc các bài test với đối phương. Thông thường, đào tạo nhân viên về các biện pháp an ninh mạng là tuyến phòng thủ đầu tiên của tổ chức chống lại các cuộc tấn công mạng.

Tương lai của DeepFake

Công nghệ Deepfake đã chứng kiến ​​sự tiến bộ đáng kinh ngạc chỉ trong vài năm ngắn ngủi. Trong khi các công cụ phát hiện deepfake đang được cải thiện, thì bản thân deepfake cũng vậy. Do đó, các nỗ lực gần đây đã tập trung vào nghiên cứu sâu hơn để tìm hiểu các công nghệ deepfake và nhiều biện pháp phòng thủ hơn.

Mặc dù deepfake chắc chắn không phải là mối đe dọa đầu tiên đối với an ninh mạng, nhưng chúng đại diện cho một thách thức ngày càng tăng đòi hỏi nghiên cứu liên tục để ngăn chặn tội phạm khai thác nó. Các tổ chức và cá nhân cũng sẽ cần phải tìm ra những cách mới để bảo mật dữ liệu của họ một cách hợp lý trước các cuộc tấn công mạng ngày càng tinh vi.

Previous Post Next Post