Phát hiện Deepfake
Phát hiện Deepfake là quá trình xác định xem một tệp kỹ thuật số như hình ảnh, âm thanh hoặc video đã được chỉnh sửa hoặc tổng hợp bằng trí tuệ nhân tạo (AI) hay không [1]. Với sự phát triển của công nghệ Deepfake, việc phát hiện Deepfake đã trở thành một nhiệm vụ quan trọng trong việc đảm bảo tính toàn vẹn của phương tiện truyền thông kỹ thuật số. Hiện nay, có nhiều kỹ thuật và công cụ khác nhau được phát triển để phát hiện Deepfake như dựa trên AI, dựa trên ánh mắt,... Những kỹ thuật và công cụ này liên tục phát triển và cải thiện để theo kịp những tiến bộ trong công nghệ Deepfake.
Phát hiện Deepfake không chỉ đơn giản là xác định những tệp kỹ thuật số nào bị thay đổi mà quan trọng hơn đó là ngăn chặn sự lây lan của những thông tin sai lệch, bảo vệ các cá nhân khỏi các sự tác động xấu của các nội dung Deepfake.
Thách thức đặt ra với việc phát hiện Deepfake
Dưới đây là một số thách thức đặt ra đối với việc phát hiện Deepfake [1]:
- Các kỹ thuật tạo Deepfake ngày càng tăng độ phức tạp: Khi các kỹ thuật tạo Deepfake trở nên tinh vi hơn, việc phân biệt các video thực và giả cũng ngày càng khó khăn hơn.
- Hạn chế tính khả dụng của tập dữ liệu đào tạo: Các thuật toán phát hiện Deepfake yêu cầu một lượng lớn dữ liệu được đào tạo để học cách phân biệt giữa các video thực và giả. Tuy nhiên, khi tính khả dụng của dữ liệu đó bị hạn chế lại tạo ra những thách thức cho việc đào tạo các mô hình phát hiện Deepfake một cách chính xác.
- Các máy dò Deepfake dễ bị tấn công: Những kẻ tấn công có thể thay đổi dữ liệu đầu vào để đánh lừa thuật toán phát hiện Deepfake. Điều này có thể dẫn đến dương tính giả hoặc âm tính giả, giảm độ chính xác của hệ thống phát hiện Deepfake.
- Phát hiện theo thời gian thực: Đây là một nhiệm vụ đầy thách thức vì nó yêu cầu xử lý một lượng lớn dữ liệu trong thời gian thực. Điều này gây áp lực cho các tài nguyên tính toán và yêu cầu phần cứng chuyên dụng để đạt được hiệu suất xử lý trong thời gian thực.
- Đảm bảo quyền riêng tư: Phát hiện Deepfake làm tăng các mối quan tâm về quyền riêng tư vì nó liên quan đến việc phân tích và xử lý dữ liệu nhạy cảm như là video và hình ảnh. Điều này đòi hỏi các biện pháp bảo vệ dữ liệu nghiêm ngặt để đảm bảo rằng quyền riêng tư của các cá nhân không bị xâm phạm.
Mạng nơ-ron tích chập
Mạng nơ-ron tích chập (Convolutional Neural Network - CNN) là một trong những mô hình Deep Learning tiên tiến, đây là một loại thuật toán học sâu, thường được sử dụng để phân tích hình ảnh và video. Nó giúp cho chúng ta xây dựng được những hệ thống thông minh với độ chính xác cao như hiện nay [1]. CNN đặc biệt phù hợp để phát hiện Deepfake vì chúng có thể xác định các mẫu và tính năng trong hình ảnh và video mà không thể nhìn thấy bằng mắt thường.
Để phát hiện Deepfake bằng CNN, thuật toán được đào tạo trên một bộ dữ liệu các hình ảnh hoặc các video thực và giả. CNN học cách xác định sự khác biệt tinh tế giữa hình ảnh thực và giả, chẳng hạn như sự khác biệt về ánh sáng, bóng tối và biểu cảm khuôn mặt. Khi CNN đã được đào tạo, nó có thể được sử dụng để phân loại hình ảnh hoặc video là thật hoặc giả với độ chính xác cao.
Bộ mã tự động
Bộ mã tự động (Autoencoder) là mạng nơ-ron tự động mã hóa, một thuật toán học máy không giám sát áp dụng sự lan truyền ngược, đặt các giá trị đích bằng với các đầu vào. Mã tự động được sử dụng để giảm kích thước đầu vào thành một biểu diễn nhỏ hơn. Kiến trúc của này tạo ra “một nút thắt cổ chai” (Hình 1), vì vậy những đặc trưng đại diện được giữ lại [2].
Hình 1. Kiến trúc Autoencoder
Để phát hiện Deepfake, thuật toán được huấn luyện trên một tập dữ liệu các hình ảnh thực và giả. Autoencoder học cách nén và xây dựng lại dữ liệu đầu vào, học cách xác định sự khác biệt giữa dữ liệu đầu vào thực và giả. Khi autoencoder được đào tạo, nó có thể được sử dụng để phân loại các hình ảnh và video mới là thật hay là giả dựa trên chất lượng của bản dựng lại.
Mạng đối nghịch tạo sinh
Mạng đối nghịch tạo sinh (Generative Adversarial Networks - GAN) là một loại thuật toán học sâu có thể được sử dụng để tạo ra hình ảnh và video chân thực. GAN gồm một trình sinh (Generator) và một trình phân biệt (Discriminator) tương tác với nhau thông qua mối quan hệ đối nghịch. Trình sinh được đào tạo để tạo ra hình ảnh hoặc video giả để đánh lừa trình phân biệt. Đồng thời, trình phân biệt được đào tạo để phân biệt giữa hình ảnh thật và giả, giữa video thật và giả [3].
Để phát hiện Deepfake bằng GAN, thuật toán được đào tạo trên tập dữ liệu gồm cả hình ảnh hoặc video thật và giả. Từ tập dữ liệu hiện có, trình sinh và trình phân biệt của GAN làm việc cùng nhau để tạo ra và phân biệt các mẫu. Khi GAN đã được huấn luyện, nó có thể được sử dụng để phân loại hình ảnh hoặc video là thật hay giả dựa trên đầu ra của trình phân biệt.
Phát hiện Deepfake bằng cách sử dụng sự không phù hợp về hình ảnh tương ứng của âm vị
Phát hiện Deepfake bằng cách sử dụng sự không phù hợp về hình ảnh tương ứng của âm vị là một kỹ thuật khoa học và giải pháp đột phá trong bối cảnh các video Deepfake xuất hiện ngày càng nhiều trên mạng Internet. Công cụ này được phát triển bởi những chuyên gia tại Đại học Stanford và Đại học California (Mỹ) [4]. Mô hình này có thể phát hiện các đặc điểm khuôn mặt nhân tạo và khai thác sự không nhất quán giữa các hình ảnh khuôn dạng miệng và âm vị nói.
FakeCatcher
FakeCatcher là công cụ phát hiện Deepfake trong thời gian thực của Intel. Công cụ này được phát triển bởi sự hợp tác với Đại học Binghamton, có khả năng phát hiện các video giả với tỷ lệ ấn tượng 96% với những kết quả trong thời gian thực. Bằng cách sử dụng phần cứng và phần mềm nâng cao của Intel, FakeCatcher là một công cụ mạnh mẽ có thể phân biệt được các nội dung thực và các nội dung đã bị chỉnh sửa.
FakeCacher hoạt động bằng cách xác định các dấu hiệu xác thực trong các video thực, chẳng hạn như sự chuyển động của các mạch máu trong các pixel của video. Khi tim của chúng ta bơm máu, tĩnh mạch sẽ thay đổi màu sắc và những tín hiệu về lưu lượng máu này được thu thập từ khắp cơ thể của chúng ta. Các thuật toán sẽ dịch các tín hiệu này thành các bản đồ không gian và với sự trợ giúp của các mô hình học sâu, FakeCatcher có thể xác định ngay lập tức một video là thật hay giả [5].
Video Authenticator
Công cụ xác thực video của Microsoft mang tên Video Authenticator là một công cụ phát hiện Deepfake nâng cao, được phát triển bởi đội ngũ các nhà nghiên cứu Microsoft Research, Microsoft AI và Ethics and Effects in Engineering and Research.
Phương thức hoạt động của Video Authenticator về cơ bản không có gì phức tạp, nó sử dụng thuật toán để phân tích ảnh tĩnh hoặc video ở cấp độ pixel mà mắt thường không thể nhìn thấy được, nhằm đưa ra tỷ lệ phần trăm cơ hội hoặc điểm số tin cậy, cho biết khả năng hình ảnh, video đó bị can thiệp Deepfake là bao nhiêu. Đặc biệt đối với video, công cụ có thể cung cấp điểm số đánh giá theo thời gian thực trên mỗi khung hình nhằm đưa ra kết quả chuẩn xác nhất [6].
Công cụ Deepware Scanner
Deepware Scanner là một công cụ điều tra số nguồn mở, chủ yếu dành riêng cho việc phát hiện các video do AI tạo ra. Công cụ này đã đi đầu trong nghiên cứu Deepfake từ năm 2018, phát triển các phương pháp hiệu quả nhất để phát hiện Deepfake. Deepware Scanner cho phép người dùng tải video lên để xác định xem chúng có bị chỉnh sửa bởi AI hay không. Tương tự như các máy dò quét Deepfake khác, các mô hình Deepware tìm kiếm các dấu hiệu thao túng trên khuôn mặt con người. Hạn chế của công cụ này là không có khả năng phát hiện các kỹ thuật hoán đổi giọng nói, điều này nguy hiểm hơn nhiều so với việc hoán đổi khuôn mặt [7].
Công cụ Faceless - bộ công cụ phát hiện Deepfake Make in Viet Nam
Bộ công cụ Faceless là do Dương Tiểu Đồng (sinh năm 2005) và Phạm Tiến Mạnh (sinh năm 1996) nghiên cứu phát triển. Đây là bộ công cụ của Việt Nam, vận hành bằng cách tiếp nhận một hình ảnh từ người dùng và tiến hành nhận diện khuôn mặt. Khuôn mặt đó sẽ được đưa vào mạng “nơ-ron tích chập” để phân loại xem đó có phải là sản phẩm của quá trình Deepfake hay không. Kết quả thử nghiệm cho thấy, Faceless có khả năng phát hiện Deepfake trong vòng dưới 2 giây với độ chính xác 94.5%. Đây cũng là một kết quả phát hiện Deepfake tương đối nổi bật so với một số công cụ hiện có. Hiện nay bộ công cụ đang được chia sẻ dưới dạng mã nguồn mở. Trong tương lai, nhóm nghiên cứu dự kiến sẽ phát triển bộ công cụ phát hiện Deepfake dựa trên đóng góp của cộng đồng và không nhằm mục đích thương mại hóa [8].
TÀI LIỆU THAM KHẢO [1]. https://www.straight.com/guides/software/best-deepfake-detector-tools-techniques/. [2]. Tran Tung Nhi, Pham Van Quan, Phan Cong Dat. Ứng dụng kỹ thuật bộ mã tự động tích chập (convolutional autoencoder) trong khử nhiễu hình ảnh. Tạp chí khoa học Đại học Đông Á. 2022. [3]. https://m.mic.gov.vn/pages/tintuc/printpage.aspx?tintucID=145971 [4]. Shruti Agarwal and Hany Farid, Ohad Fried and Maneesh Agrawala. Detecting Deep-Fake Videos from Phoneme-Viseme Mismatches. 2020 IEEE/ CVF Conference on Computer Vision and Pattern Recognition Workshops. 2020. [5] https://aimojo.pro/deepfake-detection-tools/. [7]. https://www.congluan.vn/nhung-cong-cu-ai-de-chong-lai-deepfake-post264819.html. [8]. https://vietnamnet.vn/hacker-mu-trang-viet-phat-trien-cong-cu-phat-hien-deepfake-2166061.html. |
ThS. Đào Ánh Hương - Học viện An ninh nhân dân
07:00 | 30/10/2023
09:00 | 31/03/2023
15:00 | 19/09/2022
07:00 | 07/11/2024
10:00 | 04/11/2024
08:00 | 23/09/2024
14:00 | 04/02/2025
Hệ thống Internet vạn vật (IoT) đang được ứng dụng vào nông nghiệp, công nghiệp, quân sự và thiết lập hệ thống giám sát các thiết bị gia dụng trong gia đình. Đặc điểm chính của các hệ thống này phổ biến dùng vi điều khiển trên nền tảng arduino kết hợp với một server miễn phí. Đây là một nhược điểm rất lớn do độ ổn định theo thời gian dài của vi điều khiển là không cao, tính bảo mật thấp, khả năng bị tấn công và bị chiếm quyền điều khiển là rất cao. Vì vậy cần loại bỏ các nhược điểm này trong các hệ thống điều khiển thông qua chuẩn IoT công nghiệp. Bài viết trình bày nghiên cứu xây dựng một mạng SCADA (Supervisory Control and Data Acquisition) công nghiệp có thể giám sát và thu thập dữ liệu qua Internet, đảm bảo tính bảo mật và an toàn của hệ thống.
14:00 | 27/11/2024
Các doanh nghiệp vừa và nhỏ thường phải đối mặt với nhiều thách thức về bảo mật, vì nguồn ngân sách khó có thể sở hữu một nhóm bảo mật chuyên trách. Do vậy vấn đề liên quan đến việc đảm bảo an toàn thông tin thường do một người phụ trách hoặc kiêm nhiệm, dẫn đến chỉ giải quyết được một phần sự việc khi xảy ra các sự cố.
09:00 | 25/07/2024
Thế vận hội Olympics – một sự kiện thể thao lớn nhất trong năm 2024 sẽ được bắt đầu vào ngày 27/7 tại Paris, Pháp. Đây sẽ là thời điểm tội phạm mạng tìm kiếm cơ hội tấn công nhắm vào các tổ chức, cá nhân với động cơ trực tiếp là tài chính thông qua các hình thức như lừa đảo, gian lận kỹ thuật số hoặc thu thập dữ liệu có giá trị từ người tham dự, người xem và nhà tài trợ.
14:00 | 31/05/2024
Song hành cùng với sự phát triển của công nghệ thông tin thì việc phòng, chống tội phạm cũng đã có những bước tiến mạnh mẽ về công nghệ. Đồng thời cũng tồn tại nhiều bài toán khó và một trong số đó là việc nhận diện nhanh chóng tội phạm, đối tượng tình nghi ở những địa điểm công cộng như bến xe, bến tàu, nhà ga, sân bay,… Giải quyết được bài toán này càng sớm càng tốt sẽ mang lại rất nhiều ý nghĩa trong công tác phòng, chống tội phạm. Bài báo sẽ giới thiệu một giải pháp nhận dạng mặt người dựa trên giải thuật Adaboost và các đặc trưng Haar-like qua đó giúp quá trình phát hiện tội phạm chính xác và nhanh chóng hơn.
Trong bối cảnh chuyển đổi số và ứng dụng rộng rãi của công nghệ thông tin (CNTT) thì xu hướng kết nối liên mạng để chia sẻ cơ sở dữ liệu (CSDL) trở nên tất yếu. Các hệ thống công nghệ vận hành (Operational Technology - OT) cũng không nằm ngoài xu hướng này, quá trình đó được gọi là Hội tụ IT/OT. Do vậy, nhu cầu truyền dữ liệu một chiều giữa các mạng độc lập ngày càng tăng để phục vụ cho mục đích khai thác dữ liệu. Bài viết này giới thiệu một giải pháp mới dựa trên công nghệ vi mạch tích hợp khả trình (Field-Programmable Gate Array - FPGA), sử dụng cơ chế xử lý đa luồng tốc độ cao, giúp duy trì băng thông hệ thống mà không gây ra tình trạng treo hoặc nghẽn mạng, cho phép các kết nối yêu cầu thời gian thực. Đồng thời, bài viết cũng sẽ trình bày giải pháp giả lập giao thức TCP/IP hỗ trợ cho các giao thức truyền thông trong các hệ thống mạng điều khiển IT/OT.
09:00 | 06/01/2025
Trong bối cảnh phát triển mạnh mẽ của Trí tuệ nhân tạo (AI), vấn đề khai thác lỗ hổng (Jailbreak) đã trở thành một thách thức đáng chú ý trong việc quản lý và kiểm soát mô hình ngôn ngữ lớn tạo sinh (Generative Pre-trained Transformer - GPT). Trong phạm vi bài viết này, nhóm tác giả sẽ giới thiệu tổng quan về mô hình ngôn ngữ lớn GPT hiện nay, một số phương thức khai thác lỗ hổng trong mô hình GPT và cung cấp một góc nhìn về khai thác lỗ hổng trong tương lai.
22:00 | 30/01/2025