Lỗi nghiêm trọng Ollama AI Framework cho phép DoS, trộm cắp mô hình và đầu độc

Tác giả Starlink, T.M.Một 09, 2024, 01:08:01 CHIỀU

« Chủ đề trước - Chủ đề tiếp »

0 Thành viên và 2 Khách đang xem chủ đề.

Các nhà nghiên cứu an ninh mạng đã tiết lộ sáu lỗ hổng bảo mật trong nền tảng trí tuệ nhân tạo (AI) Ollama có thể bị kẻ xấu khai thác để thực hiện nhiều hành động khác nhau, bao gồm từ chối dịch vụ, đầu độc mô hình và đánh cắp mô hình.

"Tổng hợp lại, các lỗ hổng này có thể cho phép kẻ tấn công thực hiện nhiều hành động độc hại khác nhau chỉ bằng một yêu cầu HTTP, bao gồm các cuộc tấn công từ chối dịch vụ (DoS), đầu độc mô hình, đánh cắp mô hình, v.v.", nhà nghiên cứu Avi Lumelsky của Oligo Security cho biết trong báo cáo được công bố tuần trước.


Ollama là một ứng dụng mã nguồn mở cho phép người dùng triển khai và vận hành các mô hình ngôn ngữ lớn (LLM) cục bộ trên các thiết bị Windows, Linux và macOS. Kho lưu trữ dự án của nó trên GitHub đã được fork 7.600 lần cho đến nay.

Dưới đây là mô tả ngắn gọn về sáu lỗ hổng bảo mật:

  • CVE-2024-39719 (Điểm CVSS: 7.5) - Lỗ hổng mà kẻ tấn công có thể khai thác bằng cách sử dụng điểm cuối /api/create để xác định sự tồn tại của tệp trong máy chủ (Đã sửa trong phiên bản 0.1.47)
  • CVE-2024-39720 (Điểm CVSS: 8.2) - Lỗ hổng đọc ngoài giới hạn có thể khiến ứng dụng bị sập thông qua điểm cuối /api/create, dẫn đến tình trạng DoS (Đã sửa trong phiên bản 0.1.46)
  • CVE-2024-39721 (Điểm CVSS: 7.5) - Một lỗ hổng gây cạn kiệt tài nguyên và cuối cùng là DoS khi gọi điểm cuối /api/create nhiều lần khi truyền tệp "/dev/random" làm đầu vào (Đã sửa trong phiên bản 0.1.34)
  • CVE-2024-39722 (Điểm CVSS: 7,5) - Lỗ hổng duyệt đường dẫn trong điểm cuối api/push làm lộ các tệp hiện có trên máy chủ và toàn bộ cấu trúc thư mục mà Ollama được triển khai (Đã sửa trong phiên bản 0.1.46)
  • Một lỗ hổng có thể dẫn đến việc đầu độc mô hình thông qua điểm cuối /api/pull từ một nguồn không đáng tin cậy (Không có mã định danh CVE, Chưa vá)
  • Một lỗ hổng có thể dẫn đến việc đánh cắp mô hình thông qua điểm cuối /api/push đến một mục tiêu không đáng tin cậy (Không có mã định danh CVE, Chưa vá)

Đối với cả hai lỗ hổng chưa được khắc phục, những người bảo trì Ollama đã khuyến nghị người dùng lọc các điểm cuối có thể truy cập Internet bằng proxy hoặc tường lửa ứng dụng web.

"Điều đó có nghĩa là, theo mặc định, không phải tất cả các điểm cuối đều phải được phơi bày", Lumelsky cho biết. "Đó là một giả định nguy hiểm. Không phải ai cũng biết điều đó hoặc lọc định tuyến http đến Ollama. Hiện tại, các điểm cuối này có sẵn thông qua cổng mặc định của Ollama như một phần của mọi lần triển khai, mà không có bất kỳ sự tách biệt hoặc tài liệu nào để sao lưu".

Oligo cho biết họ đã tìm thấy 9.831 trường hợp duy nhất hướng đến internet chạy Ollama, phần lớn trong số đó nằm ở Trung Quốc, Hoa Kỳ, Đức, Hàn Quốc, Đài Loan, Pháp, Vương quốc Anh, Ấn Độ, Singapore và Hồng Kông. Một trong bốn máy chủ hướng đến internet được coi là dễ bị tấn công bởi các lỗ hổng đã xác định.

Sự phát triển này diễn ra hơn bốn tháng sau khi công ty bảo mật đám mây Wiz tiết lộ một lỗ hổng nghiêm trọng ảnh hưởng đến Ollama ( CVE-2024-37032 ) có thể bị khai thác để thực thi mã từ xa.

Lumelsky lưu ý rằng: "Việc để Ollama tiếp cận Internet mà không được phép cũng giống như việc để docker socket tiếp cận Internet công cộng, vì nó có thể tải tệp lên và có khả năng kéo và đẩy mô hình (có thể bị kẻ tấn công lợi dụng)".