AI Big Sleep của Google phát hiện lỗ hổng Zero-Day trong SQLite Database Engine

Tác giả Starlink, T.M.Một 09, 2024, 12:55:25 CHIỀU

« Chủ đề trước - Chủ đề tiếp »

0 Thành viên và 2 Khách đang xem chủ đề.

Google cho biết họ đã phát hiện ra lỗ hổng bảo mật zero-day trong công cụ cơ sở dữ liệu nguồn mở SQLite bằng cách sử dụng khuôn khổ hỗ trợ mô hình ngôn ngữ lớn (LLM) có tên là Big Sleep (trước đây là Project Naptime).

Gã khổng lồ công nghệ mô tả sự phát triển này là "lỗ hổng thực tế đầu tiên" được phát hiện bằng cách sử dụng tác nhân trí tuệ nhân tạo (AI).


Nhóm Big Sleep cho biết trong bài đăng trên blog chia sẻ với The Hacker News: "Chúng tôi tin rằng đây là ví dụ công khai đầu tiên về một tác nhân AI tìm thấy sự cố an toàn bộ nhớ có thể khai thác trước đây chưa từng biết đến trong phần mềm thực tế được sử dụng rộng rãi".

Lỗ hổng bảo mật đang nói đến là lỗi tràn bộ đệm ngăn xếp trong SQLite, xảy ra khi một phần mềm tham chiếu đến một vị trí bộ nhớ trước khi bộ đệm bộ nhớ bắt đầu, do đó gây ra sự cố hoặc thực thi mã tùy ý.

Theo mô tả về lớp lỗi Common Weakness Enumeration (CWE), "Điều này thường xảy ra khi một con trỏ hoặc chỉ mục của nó bị giảm xuống một vị trí trước bộ đệm, khi phép tính số học con trỏ đưa ra kết quả ở một vị trí trước khi bắt đầu vị trí bộ nhớ hợp lệ hoặc khi sử dụng chỉ mục âm ".

Sau khi tiết lộ một cách có trách nhiệm, thiếu sót này đã được giải quyết vào đầu tháng 10 năm 2024. Điều đáng chú ý là lỗ hổng này đã được phát hiện trong một nhánh phát triển của thư viện, nghĩa là nó đã được đánh dấu trước khi đưa vào bản phát hành chính thức.

Dự án Naptime lần đầu tiên được Google nêu chi tiết vào tháng 6 năm 2024 như một khuôn khổ kỹ thuật để cải thiện các phương pháp phát hiện lỗ hổng tự động. Kể từ đó, nó đã phát triển thành Big Sleep, như một phần của sự hợp tác rộng hơn giữa Google Project Zero và Google DeepMind.

Với Big Sleep, ý tưởng là tận dụng tác nhân AI để mô phỏng hành vi của con người khi xác định và chứng minh lỗ hổng bảo mật bằng cách tận dụng khả năng hiểu mã và suy luận của LLM.

Điều này đòi hỏi phải sử dụng một bộ công cụ chuyên dụng cho phép tác nhân điều hướng qua cơ sở mã mục tiêu, chạy các tập lệnh Python trong môi trường hộp cát để tạo đầu vào cho quá trình kiểm tra, gỡ lỗi chương trình và quan sát kết quả.

Google cho biết: "Chúng tôi cho rằng công trình này có tiềm năng phòng thủ to lớn. Việc tìm ra lỗ hổng trong phần mềm trước khi nó được phát hành có nghĩa là kẻ tấn công sẽ không có cơ hội cạnh tranh: các lỗ hổng sẽ được khắc phục trước khi kẻ tấn công có cơ hội sử dụng chúng".

Tuy nhiên, công ty cũng nhấn mạnh rằng đây vẫn chỉ là kết quả thử nghiệm và nói thêm rằng "nhóm Big Sleep cho rằng hiện tại, công cụ dò tìm mục tiêu cụ thể có thể có hiệu quả tương đương (trong việc tìm ra lỗ hổng)".