Trí tuệ nhân tạo của Google không chỉ tìm ra lỗ hổng mà còn viết lại mã để vá

Tác giả Starlink, T.Mười 08, 2025, 09:00:05 CHIỀU

« Chủ đề trước - Chủ đề tiếp »

0 Thành viên và 1 Khách đang xem chủ đề.

Hôm thứ Hai, bộ phận DeepMind của Google đã công bố một tác nhân sử dụng trí tuệ nhân tạo (AI) có tên là CodeMender, có khả năng tự động phát hiện, vá và viết lại mã dễ bị tấn công để ngăn chặn các cuộc khai thác trong tương lai.

Những nỗ lực này bổ sung vào những nỗ lực đang diễn ra của công ty nhằm cải thiện khả năng phát hiện lỗ hổng được hỗ trợ bởi AI, chẳng hạn như Big Sleep và OSS-Fuzz.


DeepMind cho biết tác nhân AI được thiết kế để vừa phản ứng vừa chủ động, bằng cách sửa các lỗ hổng mới ngay khi phát hiện ra cũng như viết lại và bảo mật các cơ sở mã hiện có với mục đích loại bỏ toàn bộ các lớp lỗ hổng trong quá trình này.

Các nhà nghiên cứu Raluca Ada Popa và Four Flynn của DeepMind cho biết : "Bằng cách tự động tạo và áp dụng các bản vá bảo mật chất lượng cao, công cụ hỗ trợ AI của CodeMender giúp các nhà phát triển và người bảo trì tập trung vào việc họ làm tốt nhất — xây dựng phần mềm tốt".

"Trong sáu tháng qua kể từ khi xây dựng CodeMender, chúng tôi đã đưa 72 bản sửa lỗi bảo mật lên các dự án nguồn mở, bao gồm một số bản sửa lỗi dài tới 4,5 triệu dòng mã."

CodeMender sử dụng các mô hình Gemini Deep Think của Google để gỡ lỗi, đánh dấu và sửa các lỗ hổng bảo mật bằng cách giải quyết nguyên nhân gốc rễ của vấn đề và xác thực chúng để đảm bảo rằng chúng không gây ra bất kỳ sự hồi quy nào.

Google cho biết thêm, tác nhân AI này cũng sử dụng công cụ phê bình dựa trên mô hình ngôn ngữ lớn (LLM) để làm nổi bật sự khác biệt giữa mã gốc và mã đã sửa đổi nhằm xác minh rằng những thay đổi được đề xuất không gây ra sự hồi quy và tự động sửa lỗi khi cần thiết.

Google cho biết họ cũng có ý định tiếp cận dần những người bảo trì các dự án nguồn mở quan trọng bằng các bản vá do CodeMender tạo ra và xin phản hồi của họ để công cụ này có thể được sử dụng để giữ an toàn cho cơ sở mã.

Sự phát triển này diễn ra khi công ty cho biết họ đang thiết lập Chương trình khen thưởng lỗ hổng AI (AI VRP) để báo cáo các vấn đề liên quan đến AI trong sản phẩm của mình, chẳng hạn như tiêm mã độc, bẻ khóa và sai lệch, và giành được phần thưởng lên tới 30.000 đô la.

Vào tháng 6 năm 2025, Anthropic tiết lộ rằng các mô hình từ nhiều nhà phát triển đã sử dụng các hành vi nội gián có ác ý khi đó là cách duy nhất để tránh bị thay thế hoặc đạt được mục tiêu của họ, và các mô hình LLM "ít hoạt động sai khi tuyên bố đang trong quá trình thử nghiệm và hoạt động sai nhiều hơn khi tuyên bố tình huống là có thật".

Tuy nhiên, việc tạo nội dung vi phạm chính sách, vượt rào cản, ảo giác, thông tin không chính xác, trích xuất thông tin từ hệ thống và các vấn đề về sở hữu trí tuệ không nằm trong phạm vi của AI VRP.

Google, trước đây đã thành lập Đội AI Đỏ chuyên trách để giải quyết các mối đe dọa đối với hệ thống AI như một phần của Khung AI an toàn ( SAIF ), cũng đã giới thiệu phiên bản thứ hai của khung này để tập trung vào các rủi ro bảo mật của tác nhân như tiết lộ dữ liệu và hành động không mong muốn, cũng như các biện pháp kiểm soát cần thiết để giảm thiểu chúng.

Công ty cũng lưu ý rằng họ cam kết sử dụng AI để tăng cường bảo mật và an toàn, đồng thời sử dụng công nghệ này để mang lại lợi thế cho bên bảo vệ và chống lại mối đe dọa ngày càng tăng từ tội phạm mạng, kẻ lừa đảo và kẻ tấn công được nhà nước hậu thuẫn.