Tôi tự lưu trữ ChatGPT riêng của mình bằng công cụ này

Tác giả Starlink, T.M.Một 14, 2025, 09:00:09 CHIỀU

« Chủ đề trước - Chủ đề tiếp »

0 Thành viên và 2 Khách đang xem chủ đề.

ChatGPT đã trở thành hình mẫu cho trí tuệ nhân tạo và các mô hình ngôn ngữ lớn ở khắp mọi nơi, nhưng nếu bạn muốn thứ gì đó chuyên biệt hơn hoặc muốn thứ gì đó có thể đảm bảo là riêng tư thì đây không phải là lựa chọn duy nhất của bạn.


Tôi đã chạy một số AI trên máy tính của mình trong một năm nay thay vì trả tiền cho ChatGPT—sau đây là cách thực hiện.

1. Tại sao phải chạy AI cục bộ trên máy tính của bạn?

ChatGPT phản hồi nhanh, tương đối thông minh và liên tục nhận được các bản cập nhật, vậy tại sao lại phải bận tâm đến việc lưu trữ mô hình ngôn ngữ lớn của riêng bạn?

Có ba lý do chính: tích hợp với các dự án của tôi, quyền riêng tư và chuyên môn hóa.

1.1. ChatGPT tốn tiền để sử dụng

Nếu bạn tự quản lý một ngôi nhà thông minh và muốn tích hợp ChatGPT vào hệ thống của mình, bạn sẽ phải trả phí để truy cập. Tùy thuộc vào mức độ sử dụng, chi phí có thể dao động từ vài xu mỗi tháng đến hàng trăm đô la.

Việc tự lưu trữ AI không giải quyết triệt để vấn đề này, vì bạn phải trả tiền điện, nhưng điều đó có nghĩa là bạn sẽ không phải chịu chi phí truy cập AI tăng đột biến hoặc vô tình phải trả một khoản phí khổng lồ vì sử dụng quá mức. Ngay cả những chiếc PC gia đình mạnh nhất cũng khó có thể tiêu tốn quá vài đô la tiền điện mỗi ngày, với điều kiện hệ thống hoạt động hết công suất 24/24.

1.2. AI tự lưu trữ là riêng tư

ChatGPT là một công cụ tuyệt vời, nhưng không phải là công cụ riêng tư. Nếu bạn lo ngại về việc dữ liệu của mình có thể bị sử dụng trong tương lai, hoặc nếu bạn đang xử lý thông tin mật không thể chia sẻ ra bên ngoài tổ chức, thì AI cục bộ là một lựa chọn tuyệt vời.

Bạn có thể đảm bảo rằng không có dữ liệu nào rời khỏi PC của bạn và miễn là PC của bạn an toàn, bạn có thể chắc chắn rằng dữ liệu bạn cung cấp sẽ không được sử dụng để đào tạo trong tương lai hoặc bị rò rỉ do lỗi bảo mật.

1.3. AI cục bộ có thể được tinh chỉnh theo nhu cầu của bạn

Không phải AI hay LLM nào cũng giống nhau. Nếu bạn hỏi Gemini hoặc ChatGPT cùng một câu hỏi, bạn sẽ nhận được những câu trả lời hơi khác nhau. Sự khác biệt đó cũng thể hiện rõ trong AI mà bạn có thể lưu trữ cục bộ.

GPT-oss của OpenAI sẽ đưa ra những phản hồi khác nhau cho Qwen3, và Gemma sẽ đưa ra những câu trả lời khác nhau từ Kimi. Hơn nữa, các mô hình mở này cũng chịu sự chi phối của cuộc chạy đua AI tương tự như các mô hình thương mại. Một số mô hình chỉ giỏi hơn ở một số nhiệm vụ nhất định so với những mô hình khác, và AI nào giỏi nhất ở nhiệm vụ nào sẽ thay đổi theo công nghệ và các bản phát hành mới.

Khả năng chuyển đổi nhanh chóng giữa các mô hình cho một công việc cụ thể cực kỳ tiện lợi, và tôi thường xuyên tận dụng điều này. Nếu tôi cần phản hồi phức tạp về một ý tưởng, một mô hình lớn hơn như Qwen3 32B sẽ rất hữu ích. Nếu tôi chỉ cần một công cụ để phân tích cú pháp văn bản cơ bản, Gemma3 4b hoàn toàn phù hợp.


Nếu bạn tự lưu trữ AI để xử lý các tác vụ trong phòng thí nghiệm tại nhà, việc phân công các công việc đơn giản cho các LLM nhẹ hơn là một cách tuyệt vời để tiết kiệm tài nguyên. Ngoài ra, bạn có thể kết nối các AI khác, chẳng hạn như AI chuyên về thị giác máy hoặc xử lý ngôn ngữ tự nhiên, để thực hiện các tác vụ chuyên sâu hơn.

2. Bạn cần gì để lưu trữ ChatGPT của riêng mình?

Điều đầu tiên bạn cần để chạy LLM của riêng mình là LM Studio, cung cấp giao diện thuận tiện để trò chuyện với LLM, tương tự như cách bạn trò chuyện với ChatGPT. Nó cũng giúp việc dùng thử LLM mới trở nên cực kỳ đơn giản.


Hầu như bất kỳ PC chơi game hiện đại nào cũng có thể chạy ít nhất một số mô hình AI cục bộ, mặc dù yếu tố hạn chế chính là dung lượng VRAM khả dụng trên GPU của bạn. Nếu bạn mua máy mới, 16GB VRAM có lẽ là mức trung bình hợp lý, cho phép bạn tiếp cận nhiều loại AI mạnh mẽ. 12GB có lẽ là mức tối thiểu.

Ngoài ra, ổ SSD tốc độ cao sẽ giúp việc tải và dỡ mô hình nhanh hơn, và dung lượng RAM hệ thống lớn (32GB trở lên) là lý tưởng nếu bạn muốn chuyển một số tác vụ AI từ GPU sang CPU.

Nếu bạn không chắc hệ thống của mình có thể chạy những mô hình nào với thông số kỹ thuật đã cho, thì có một dự án tiện dụng trên GitHub có thể đưa ra các đề xuất dựa trên những gì bạn muốn làm và thông số kỹ thuật hệ thống của bạn.


3. Chạy ChatGPT của riêng bạn

Sau khi tải xuống và cài đặt LM Studio, tất cả những gì bạn cần làm là nhấp vào biểu tượng kính lúp, duyệt tìm mô hình bạn muốn và nhấp vào "Tải xuống" ở phía dưới.


Nếu bạn tìm thấy một mô hình ở nơi khác mà bạn muốn sử dụng, bạn cần thả nó vào đúng thư mục trên máy tính của mình. Theo mặc định, thư mục đó sẽ là:

Mã nguồn [Chọn]
C:\Users\(YOURUSERNAME)\.lmstudio\models
Trong đó (TÊN NGƯỜI DÙNG CỦA BẠN) là tên tài khoản người dùng của bạn. Vậy trong trường hợp của tôi, nó là "C:\Users\Equinox\.lmstudio\models."

Sau khi thực hiện xong, mẫu đó sẽ xuất hiện trong danh sách mẫu của bạn giống như bất kỳ mẫu nào khác.

4. ChatGPT của bạn có thể làm được những gì?

Những gì LLM do bạn tự lưu trữ có thể làm được tùy thuộc vào mẫu máy bạn đang sử dụng, phần cứng bạn có và khả năng viết lời nhắc của bạn tốt đến đâu.

Có hàng tá mô hình (hoặc hơn) với các chức năng chuyên biệt, nhưng ít nhất, bạn có thể yêu cầu chúng đọc nguồn, tạo tóm tắt, thảo luận nội dung tài nguyên bạn cung cấp và phân tích nội dung hình ảnh hoặc video. Nhiều mô hình được tối ưu hóa để sử dụng công cụ, nghĩa là nếu bạn muốn, chúng thậm chí có thể tương tác với các ứng dụng bên ngoài để thực hiện các tác vụ bổ sung hoặc tự động lấy thông tin.

Nếu bạn muốn thử nghiệm, bạn thậm chí có thể tích hợp hoàn toàn chúng với Home Assistant để tạo ra ngôi nhà thông minh biết nói và biết suy nghĩ (giống như vậy).

Tuy nhiên, ngoài việc tiết kiệm chi phí, việc tự tổ chức chương trình LLM còn mang lại một điều thú vị khác: Nó rất thú vị. Không phải ngày nào một công nghệ hoàn toàn mới cũng được người dùng tại nhà đón nhận rộng rãi, đặc biệt là khi công nghệ này được dự đoán sẽ mang tính đột phá như AI.