
OpenAI cho biết các mô hình AI thế hệ tiếp theo có thể được sử dụng để triển khai từ xa các lỗ hổng bảo mật chưa được vá (zero-day) chống lại các hệ thống được bảo vệ nghiêm ngặt hoặc cho phép các tác nhân đe dọa xâm phạm các hoạt động phức tạp của doanh nghiệp, dẫn đến tác động thực tế.
Để đối phó rủi ro này, OpenAI đang triển khai một chiến lược an ninh nhiều lớp, bao gồm kiểm soát quyền truy cập, gia cố hạ tầng, thiết lập cơ chế giám sát hoạt động và các biện pháp hạn chế sử dụng sai mục đích. Công ty đang phát triển các ứng dụng AI phục vụ mục tiêu phòng thủ như công cụ kiểm tra mã và vá lỗ hổng bảo mật.
Lãnh đạo OpenAI cho biết: "Mục tiêu của chúng tôi là các mô hình và sản phẩm của chúng tôi sẽ mang lại lợi thế đáng kể cho những người bảo vệ, những người thường bị áp đảo về số lượng và thiếu nguồn lực".
Theo đó, công ty dự định ra mắt chương trình cấp quyền truy cập theo cấp độ cho những người dùng đủ điều kiện - đặc biệt là các chuyên gia và tổ chức củng cố an ninh mạng để họ có thể sử dụng các tính năng nâng cao hỗ trợ phòng ngừa, đồng thời giảm nguy cơ bị lạm dụng.
Để tăng cường phản ứng với các nguy cơ liên quan đến trí tuệ nhân tạo, OpenAI cũng thành lập Hội đồng Rủi ro Tiên phong (Frontier Risk Council). Nhóm chuyên gia này sẽ bước đầu tập trung vào các vấn đề an ninh mạng, trước khi mở rộng phạm vi xem xét các rủi ro khác xuất hiện cùng với sự phát triển nhanh chóng của AI.
OpenAI không phải là đơn vị duy nhất đang tăng cường khả năng chống giả mạo cho các mô hình và công cụ AI, nhằm chuẩn bị đối mặt với các mối đe dọa an ninh mạng do AI gây ra ngày càng thường xuyên và tinh vi hơn. Mới đây, Google đã thông báo rằng họ đang nâng cấp kiến trúc bảo mật của trình duyệt Chrome, để chống lại các cuộc tấn công chèn lệnh prompt có thể được sử dụng để chiếm quyền điều khiển các tác nhân AI trong Chrome.
