Các nhà nghiên cứu của tập đoàn Intel đã phát triển công nghệ phát hiện Deepfake trong thời gian thực để giải quyết các mối đe dọa liên quan. Deepfake là video, đoạn ghi âm hoặc hình ảnh mà trong đó có người hoặc hành động không có thật được tạo bởi trí tuệ nhân tạo (AI). Deepfake sử dụng các kiến trúc học sâu phức tạp, chẳng hạn như mạng đối nghịch tạo sinh, các bộ mã tự động đa dạng và các mô hình AI khác, để tạo ra nội dung có độ chân thực cao và có vẻ đáng tin. Các mô hình này có thể tạo ra các tính cách nhân tạo, video ghép lời và thậm chí chuyển đổi văn bản thành hình ảnh, khiến việc phân biệt giữa nội dung thật và giả trở nên vô cùng khó khăn.
Thuật ngữ Deepfake đôi khi được áp dụng cho nội dung xác thực đã bị thay đổi. Các nhà nghiên cứu của Intel kiểm tra các dạng nội dung được tổng hợp bởi máy tính, đồng thời cho biết: “Lý do nó được gọi là Deepfake là vì có kiến trúc học sâu phức tạp trong AI tạo ra tất cả nội dung đó”.
Tội phạm mạng thường lạm dụng công nghệ Deepfake để thực hiện các hành vi bất chính. Một số trường hợp sử dụng bao gồm lan truyền thông tin chính trị sai lệch hoặc cá nhân không đồng thuận, thao túng thị trường và mạo danh để kiếm tiền. Những tác động tiêu cực này cho thấy sự cần thiết của các phương pháp phát hiện Deepfake hiệu quả.
Phòng thí nghiệm Intel đã phát triển một trong những nền tảng phát hiện Deepfake trong thời gian thực đầu tiên trên thế giới. Thay vì tìm kiếm một số dấu hiệu làm giả, công nghệ này tập trung vào việc phát hiện những gì là thực, chẳng hạn như nhịp tim. Sử dụng kỹ thuật Photoplethysmography - hệ thống phát hiện phân tích sự thay đổi màu sắc trong tĩnh mạch do hàm lượng oxy để có thể phát hiện xem người xuất hiện trong video là thật hay giả.
Công nghệ phát hiện Deepfake của Intel đang được triển khai trên nhiều lĩnh vực và nền tảng khác nhau, bao gồm các công cụ truyền thông xã hội, các cơ quan báo chí, đài truyền hình, công cụ tạo nội dung, công ty khởi nghiệp và tổ chức phi lợi nhuận. Bằng cách tích hợp công nghệ này vào quy trình làm việc, các tổ chức này có thể xác định và giảm thiểu tốt hơn sự lây lan các thông tin sai lệch liên quan đến Deepfake.
Mặc dù có khả năng bị lạm dụng nhưng công nghệ Deepfake có những ứng dụng hợp pháp. Một trong những ứng dụng ban đầu là tạo hình đại diện cho các cá nhân trong môi trường kỹ thuật số. Nhà nghiên cứu Ilke Demir của Intel đề cập đến một trường hợp sử dụng cụ thể có tên là "MyFace, MyChoice", tận dụng Deepfake để nâng cao quyền riêng tư trên các nền tảng trực tuyến.
Nói một cách đơn giản, phương pháp này cho phép các cá nhân kiểm soát sự xuất hiện của mình trong các bức ảnh trên mạng, thay thế khuôn mặt bằng một "Deepfake tương đối khác biệt" nếu họ muốn tránh bị nhận ra. Các biện pháp kiểm soát này giúp tăng cường quyền riêng tư và kiểm soát danh tính, giúp chống lại các thuật toán nhận dạng khuôn mặt tự động.
Đảm bảo việc phát triển và triển khai các công nghệ AI một cách có đạo đức là rất quan trọng. Nhóm Trusted Media của Intel có hợp tác với các nhà nhân chủng học, nhà khoa học xã hội và các nhà nghiên cứu để đánh giá và cải tiến công nghệ. Công ty cũng có Hội đồng Trách nhiệm AI để đánh giá các hệ thống AI về các nguyên tắc có trách nhiệm và đạo đức, bao gồm các thành kiến, hạn chế tiềm ẩn và các trường hợp sử dụng có hại có thể xảy ra. Cách tiếp cận đa ngành này giúp đảm bảo rằng các công nghệ AI, như phát hiện Deepfake mang lại lợi ích cho con người hơn là gây hại.
Khi Deepfake trở nên phổ biến và tinh vi hơn, việc phát triển và triển khai các công nghệ phát hiện để chống lại thông tin sai lệch và các hậu quả có hại khác ngày càng trở nên quan trọng. Công nghệ phát hiện Deepfake thời gian thực của Phòng thí nghiệm Intel cung cấp một giải pháp hiệu quả và có tiềm năng phát triển cho vấn đề đang gia tăng này.
Bằng cách kết hợp các cân nhắc về đạo đức và cộng tác với các chuyên gia trong nhiều lĩnh vực khác nhau, Intel đang nỗ lực hướng tới một tương lai khi các công nghệ AI được sử dụng một cách có trách nhiệm và phục vụ sự tiến bộ của xã hội.
Nguyễn Anh Tuấn
(theo ZDNet)
09:00 | 31/03/2023
15:00 | 20/11/2023
15:00 | 19/09/2022
17:00 | 23/07/2020
16:00 | 01/12/2023
13:00 | 15/04/2024
Hội thảo quốc tế IEEE lần thứ nhất về mật mã và an toàn thông tin (VCRIS 2024) dự kiến sẽ được tổ chức trong 02 ngày 03-04/12/2024 tại Học viện Kỹ thuật mật mã, Ban Cơ yếu Chính phủ. Hội thảo nhằm mục đích tạo lập và phát triển môi trường trao đổi học thuật, thúc đẩy các hoạt động nghiên cứu khoa học cơ bản, khoa học ứng dụng về mật mã và an toàn thông tin tại Việt Nam và thế giới.
12:00 | 12/04/2024
Theo một nghiên cứu của công ty công nghệ Veritas (Mỹ) công bố, cứ 11 giây trôi qua thế giới lại ghi nhận một vụ tấn công mạng nhằm vào các tổ chức, doanh nghiệp lớn, đặc biệt là lĩnh vực tài chính.
14:00 | 05/03/2024
Công ty Avast sẽ phải trả 16,5 triệu USD và bị cấm bán hoặc cấp phép dữ liệu duyệt web cho quảng cáo như một phần của thỏa thuận với Ủy ban Thương mại Liên bang (FTC) vì đã bán một lượng lớn dữ liệu duyệt web tổng hợp, có thể nhận dạng lại cho các bên thứ ba.
14:00 | 23/02/2024
Nhóm tin tặc mã độc tống tiền BlackCat đã bắt đầu lạm dụng các quy tắc báo cáo sự cố mạng của Ủy ban Chứng khoán và Giao dịch Mỹ (SEC) để gây áp lực lên các tổ chức từ chối đàm phán thanh toán tiền chuộc. Những kẻ tấn công đã nộp đơn khiếu nại lên SEC đối với một nạn nhân, trong một động thái có thể sẽ trở thành thông lệ sau khi các quy định mới đã có hiệu lực vào giữa tháng 12.
Hội nghị quốc tế lần thứ 12 Lãnh đạo cấp cao phụ trách an ninh được tổ chức dựa trên sự cần thiết vì nó mở ra cơ hội để trao đổi kinh nghiệm, tìm kiếm những cách tiếp cận mới và các giải pháp tổng hợp chung cho các vấn đề cấp bách về an ninh khu vực và toàn cầu.
09:00 | 28/04/2024
Hướng tới kỷ niệm 80 năm Ngày truyền thống ngành Cơ yếu Việt Nam (12/9/1945 - 12/9/2025), Ban Cơ yếu Chính phủ đã ban hành Kế hoạch phát động Cuộc thi sáng tác nghệ thuật thơ, ca khúc về Ngành Cơ yếu Việt Nam.
10:00 | 16/04/2024
Apple đang đàm phán để sử dụng công cụ Gemini AI của Google trên iPhone, tạo tiền đề cho một thỏa thuận mang tính đột phá trong ngành công nghiệp AI.
11:00 | 26/04/2024