Google cảnh báo về các nhóm mã độc mới được hỗ trợ bởi trí tuệ nhân tạo đang được triển khai rộng rãi

18:13 | 14/11/2025

Nhóm tình báo về mối đe dọa (GTIG) của Google đã có những khám phá và phát hiện về việc kẻ tấn công tận dụng trí tuệ nhân tạo (AI) để triển khai các họ phần mềm độc hại mới, tích hợp các mô hình ngôn ngữ lớn (LLM) trong quá trình thực thi.

Phương pháp mới cho phép thay đổi linh động giữa quá trình thực thi, đạt đến mức độ linh hoạt trong hoạt động mà phần mềm độc hại truyền thống hầu như không thể đạt được.

Google gọi kỹ thuật này là tự sửa đổi “just-in-time” và nêu bật công cụ chèn mã độc PromptFlux và công cụ khai thác dữ liệu PromptSteal (hay còn gọi là LameHug) được triển khai tại Ukraine, như những ví dụ về tạo các tập lệnh tự động, obfuscation và tạo các hàm theo yêu cầu.

PromptFlux là một trình nhúng VBScript tận dụng LLM Gemini của Google trong phiên bản mới nhất để tạo ra các biến thể VBScript được mã hóa. Nó cố gắng duy trì hoạt động thông qua các mục nhập thư mục Startup và lây nhiễm sang các ổ đĩa di động và chia sẻ mạng được ánh xạ.

Google giải thích: “Thành phần mới nhất của PromptFlux là mô-đun Thinking Robot, được thiết kế để định kỳ truy vấn Gemini nhằm lấy code mới để tránh phần mềm diệt vi-rút”.

Theo các nhà nghiên cứu, prompt này rất cụ thể và có thể phân tích bằng máy, họ nhận thấy dấu hiệu cho thấy nhà phát triển của phần mềm độc hại này có mục đích tạo ra một “kịch bản” không ngừng phát triển.

Hàm “StartThinkingRobot” của PromptFlux

Google không thể xác định PromptFlux thuộc về tác nhân đe dọa cụ thể nào, nhưng lưu ý rằng các chiến thuật, kỹ thuật và quy trình (TTP) cho thấy rằng nó đang được sử dụng bởi một nhóm tin tặc có động cơ tài chính.

Mặc dù PromptFlux đang trong giai đoạn phát triển ban đầu, chưa có khả năng gây ra bất kỳ thiệt hại thực sự nào cho mục tiêu, Google đã hành động để vô hiệu hóa quyền truy cập vào API Gemini và xóa mọi tài sản liên quan đến nó.

Một phần mềm độc hại khác được hỗ trợ bởi AI mà Google phát hiện trong năm nay, được sử dụng trong các hoạt động là FruitShell, một reverse shell PowerShell thiết lập quyền truy cập máy chủ điều khiển và ra lệnh (C2) từ xa, đồng thời thực thi các lệnh tùy ý trên các máy chủ bị xâm phạm.

Mã độc này có sẵn công khai và các nhà nghiên cứu cho biết nó bao gồm các prompt được mã hóa cứng nhằm mục đích bypass phân tích bảo mật do LLM cung cấp.

Google cũng nhấn mạnh QuietVault, một công cụ đánh cắp thông tin JavaScript nhắm vào các token GitHub/NPM, thu thập dữ liệu đăng nhập trên các kho lưu trữ GitHub công khai được tạo động. QuietVault tận dụng các công cụ AI CLI trên máy chủ và nhắc nhở để tìm kiếm thêm secret và đánh cắp chúng.

Trong cùng danh sách phần mềm độc hại hỗ trợ AI còn có PromptLock, một loại mã độc tống tiền dựa vào các tập lệnh Lua để đánh cắp và mã hóa dữ liệu trên máy tính Windows, macOS và Linux.

Lạm dụng Gemini

Ngoài phần mềm độc hại do AI hỗ trợ, báo cáo của Google còn ghi nhận nhiều trường hợp kẻ tấn công lạm dụng Gemini trong toàn bộ vòng đời tấn công.

Một tác nhân Trung Quốc đã đóng giả là người tham gia CTF để vượt qua bộ lọc an toàn của Gemini và lấy thông tin chi tiết về lỗ hổng, sử dụng mô hình để tìm lỗ hổng, tạo mồi nhử lừa đảo và xây dựng các công cụ thoát khỏi hệ thống.

Tin tặc Iran MuddyCoast (UNC3313) mạo danh sinh viên để sử dụng Gemini nhằm phát triển phần mềm độc hại và gỡ lỗi, vô tình làm lộ tên miền và khóa C2.

Bên cạnh đó, nhóm APT42 của Iran đã lợi dụng Gemini để lừa đảo và phân tích dữ liệu, tạo mồi nhử, dịch nội dung và phát triển công cụ xử lý dữ liệu để chuyển đổi ngôn ngữ tự nhiên thành SQL với mục tiêu khai thác dữ liệu cá nhân.

Mặt khác, các tin tặc APT41 của Trung Quốc đã tận dụng Gemini để hỗ trợ code, cải tiến OSSTUN C2 và sử dụng các thư viện che giấu để tăng độ tinh vi của phần mềm độc hại.

Cuối cùng, nhóm tin tặc Triều Tiên Masan (UNC1069) đã sử dụng Gemini để đánh cắp tiền điện tử, lừa đảo đa ngôn ngữ và tạo ra các mồi nhử deepfake, trong khi Pukchong (UNC4899) sử dụng nó để phát triển mã độc nhắm mục tiêu vào các thiết bị biên và trình duyệt.

Trong mọi trường hợp Google xác định được, họ đều vô hiệu hóa các tài khoản liên quan và tăng cường bảo vệ mô hình dựa trên các chiến thuật đã quan sát được, để khiến việc vượt qua các chiến thuật này để lạm dụng trở nên khó khăn hơn.

Các công cụ chống tội phạm mạng được hỗ trợ bởi AI trên các diễn đàn ngầm

Các nhà nghiên cứu của Google phát hiện ra rằng trên các thị trường ngầm, cả tiếng Anh và tiếng Nga, sự quan tâm đến các công cụ và dịch vụ dựa trên AI độc hại đang ngày càng tăng vì chúng hạ thấp rào cản kỹ thuật để triển khai các cuộc tấn công phức tạp hơn.

Khả năng của các công cụ và dịch vụ AI đáng chú ý được quảng cáo trên các diễn đàn ngầm bằng tiếng Anh và tiếng Nga

Google cho biết trong báo cáo được công bố mới đây: “Nhiều quảng cáo trên diễn đàn ngầm sử dụng ngôn ngữ tương tự như cách tiếp thị truyền thống của các mô hình AI hợp pháp, nêu ra nhu cầu cải thiện hiệu quả của quy trình làm việc và nỗ lực đồng thời cung cấp hướng dẫn cho những khách hàng tiềm năng quan tâm đến dịch vụ của họ”.

Các dịch vụ cung cấp rất đa dạng, từ tiện ích tạo Deepfake và hình ảnh cho đến phát triển phần mềm độc hại, lừa đảo, nghiên cứu và trinh sát, thậm chí khai thác lỗ hổng bảo mật.

Khi thị trường tội phạm mạng dành cho các công cụ hỗ trợ AI ngày càng phát triển, xu hướng này cho thấy sự thay thế các công cụ thông thường được sử dụng trong các hoạt động độc hại. GTIG đã xác định nhiều tác nhân quảng cáo các công cụ đa chức năng có thể bao quát các giai đoạn của một cuộc tấn công.

Xu hướng chuyển sang các dịch vụ dựa trên AI có vẻ rất mạnh mẽ, vì nhiều nhà phát triển quảng bá các tính năng mới trong phiên bản miễn phí với các ưu đãi của họ, thường bao gồm quyền truy cập API và Discord với mức giá cao hơn.

Công ty cho biết họ đang điều tra tất cả các dấu hiệu lạm dụng đối với các dịch vụ và sản phẩm của mình, bao gồm các hoạt động liên quan đến các tác nhân đe dọa được chính phủ hậu thuẫn.

Để lại bình luận