Chạy Chatbot AI của riêng bạn tại nhà bằng cách sử dụng NVIDIA Chat With RTX

Tác giả Security+, T.Hai 23, 2024, 09:58:15 SÁNG

« Chủ đề trước - Chủ đề tiếp »

0 Thành viên và 1 Khách đang xem chủ đề.

Chạy Chatbot AI của riêng bạn tại nhà bằng cách sử dụng NVIDIA Chat With RTX


Nó có thể đọc sách cho bạn.

  • Trò chuyện với RTX của NVIDIA chạy cục bộ trên PC của bạn, không cần internet, nhanh chóng và hiệu quả.
  • Để chạy Trò chuyện với RTX, hãy đảm bảo bạn có dòng RTX 30 trở lên, dung lượng lưu trữ lớn (50GB+) và RAM hệ thống, đồng thời đang chạy Windows 10 hoặc 11, sau đó tải xuống và cài đặt các tệp từ NVIDIA.
  • Trò chuyện với RTX có thể học hỏi từ các tài liệu và video YouTube mà bạn cung cấp, sau đó trả lời các câu hỏi dựa trên những gì nó học được.

Trò chuyện với RTX của NVIDIA rất giống ChatGPT, ngoại trừ việc nó chạy cục bộ trên PC của bạn mà không cần kết nối Internet. Nó nhanh chóng, hiệu quả và thậm chí có thể học hỏi từ các tài liệu bạn cung cấp hoặc video YouTube. Đây là cách để nó chạy trên PC của bạn.

1. Bạn cần gì để chạy trò chuyện của NVIDIA với RTX?

Hầu hết các máy tính chơi game hiện đại đều có thể chạy Trò chuyện với RTX của NVIDIA. Cụ thể, bạn sẽ cần:

  • Card đồ họa RTX 30 series hoặc 40 series (NVIDIA) có RAM tối thiểu 8GB
  • Khoảng 50 gigabyte dung lượng lưu trữ miễn phí
  • 16GB RAM hệ thống
  • Máy tính Windows 10 hoặc Windows 11

Trò chuyện với RTX dựa trên TensorRTX-LLM, chỉ được hỗ trợ trên GPU dòng 30 trở lên. Điều đó có nghĩa là GPU dòng 10 và 20 của bạn—mặc dù vẫn phù hợp cho nhiều thứ—không được hỗ trợ và có thể sẽ không bao giờ được hỗ trợ.

2. Cách cài đặt Trò chuyện với RTX

Trước tiên, hãy tải xuống tệp Trò chuyện với RTX từ trang web của NVIDIA bằng cách nhấp vào nút "Tải xuống ngay" lớn ở trên cùng. Chúng có dung lượng khoảng 35 gigabyte, vì vậy hãy chuẩn bị tinh thần cho việc này sẽ mất một chút thời gian.


Các tập tin được nén và bạn nên giải nén chúng trước khi cố gắng cài đặt ứng dụng. Nếu bạn đang sử dụng chương trình lưu trữ của bên thứ ba như 7Zip hoặc WinRAR, bạn chỉ cần nhấp chuột phải vào ZIP và chọn "Trích xuất tại đây". Nếu bạn đang sử dụng File Explorer, hãy bấm đúp vào tệp zip, sao chép thư mục "ChatWithRTX_Offline_2_11_mistral_Llama" rồi dán vào thư mục Tải xuống của bạn (hoặc bất kỳ nơi nào khác mà bạn muốn).

Một lần nữa, hãy chuẩn bị tinh thần cho thao tác này sẽ mất một chút thời gian—việc giải nén 35 gigabyte sẽ mất một chút thời gian, đặc biệt nếu nó được lưu trữ trên ổ cứng cơ học chứ không phải SSD.


Sau khi hoàn tất, hãy mở "ChatWithRTX_Offline_2_11_mistral_Llama" và nhấp đúp vào "Setup.exe." Không có nhiều lựa chọn bạn có thể thực hiện trong trình cài đặt. Người duy nhất cần chú ý là vị trí lắp đặt. Trò chuyện với RTX sẽ sử dụng hết khoảng 50 GB khi cài đặt, vì vậy hãy đảm bảo bạn chọn ổ đĩa có đủ dung lượng trống.


Một lần nữa, đừng mong đợi điều này sẽ cài đặt siêu nhanh. Nó phải tải xuống các tài sản Python bổ sung trước khi có thể chạy và mỗi tài sản đó có dung lượng vài gigabyte. Khi sẵn sàng, nó sẽ tự động mở trình duyệt của bạn và hiển thị giao diện người dùng.

Trò chuyện với RTX về cơ bản sẽ lưu trữ một máy chủ web cục bộ trên PC của bạn để cung cấp giao diện người dùng mà sau đó bạn có thể truy cập thông qua trình duyệt của mình. Theo mặc định, Trò chuyện với RTX không được định cấu hình để lưu trữ một trang web có thể truy cập từ Internet và các cổng mà Trò chuyện với RTX sử dụng cũng có thể bị đóng theo mặc định trên bộ định tuyến của bạn. Đây không phải là rủi ro bảo mật hoặc có thể truy cập được từ Internet, trừ khi bạn thiết lập cụ thể.


Nếu nó không tự động mở, hãy kiểm tra cửa sổ Terminal (hoặc Dấu nhắc lệnh) và tìm dòng "Chạy trên URL cục bộ". Lưu ý địa chỉ IP và cổng, sau đó nhập địa chỉ đó vào thanh địa chỉ của trình duyệt. Địa chỉ IP sẽ luôn là 127.0.0.1 (địa chỉ loopback), nhưng cổng sẽ thay đổi mỗi khi bạn khởi chạy Trò chuyện với RTX.


Sau khi Trò chuyện với RTX mở trong trình duyệt của bạn, bạn có thể nói chuyện với nó giống như bất kỳ chatbot AI nào khác. Nó có thể trả lời các câu hỏi cơ bản, làm toán và thậm chí kể chuyện cười—và nó làm việc đó rất nhanh. Nó nhanh hơn đáng kể so với các chatbot chạy cục bộ khác mà chúng tôi đã thử nghiệm trước đây, không còn nghi ngờ gì nữa vì nó có thể sử dụng lõi tensor có trong GPU NVIDIA RTX.


Tuy nhiên, tính năng thực sự thú vị là khả năng cung cấp câu trả lời dựa trên tệp hoặc video bạn cung cấp.

3. Trò chuyện với RTX Tìm hiểu từ tệp của bạn hoặc YouTube

Trò chuyện với RTX cho phép bạn cung cấp cho nó một tệp hoặc video YouTube để nó có thể "tìm hiểu" và tạo phản hồi. Để chỉ định tệp hoặc video, hãy nhấp vào menu thả xuống bên dưới "Tập dữ liệu", sau đó chọn "Đường dẫn thư mục" hoặc "URL YouTube".

Chọn "Đường dẫn thư mục" nếu bạn muốn Trò chuyện với RTX đọc tệp văn bản hoặc PDF từ PC của bạn và chọn URL YouTube nếu bạn muốn sử dụng bản ghi từ video hoặc danh sách phát trên YouTube.

Hãy nhớ rằng nó sẽ cố gắng sử dụng mọi tệp văn bản trong thư mục bạn chỉ định, vì vậy tốt nhất bạn nên tạo một thư mục mới chỉ chứa các tệp bạn muốn nó lấy từ đó.


Việc xử lý tập dữ liệu mới sẽ mất thời gian và bạn cung cấp càng nhiều dữ liệu thì càng mất nhiều thời gian. Tôi đã thử nghiệm Trò chuyện với RTX trên GPU NVIDIA 3060 12GB và nhận thấy rằng một cuốn tiểu thuyết trung bình sẽ kết thúc sau chưa đầy một phút. GPU mới hơn và mạnh hơn sẽ nhanh hơn. Bạn có thể kiểm tra cửa sổ Terminal (có thể là Dấu nhắc Lệnh nếu bạn đang dùng Windows 10) để xem nó đang tiến triển như thế nào.


Tuy nhiên, chỉ vì bạn có thể cung cấp toàn bộ 70 gigabyte Project Gutenberg trong nỗ lực biến nó thành một tác phẩm văn học không có nghĩa là bạn nên làm vậy—trên thực tế, tôi khuyên bạn nên chống lại điều đó. Trò chuyện với RTX hoạt động tốt nhất khi bạn không kết hợp nhiều nguồn và khi các nguồn đó ở quy mô nhỏ.

4. Chat với RTX Có Gây Ảo Giác

Trò chuyện với RTX, bất kể bạn sử dụng mô hình nào, đều gặp phải một vấn đề giống như tất cả các Chatbot AI đều gặp phải: nó gây ảo giác. Nếu nó không biết điều gì đó, nó thường sẽ tự tin tuyên bố câu trả lời.

Khi được nhắc "John Wayne là ai", Trò chuyện với RTX vui vẻ cho tôi biết anh ấy sinh ra và mất khi nào, anh ấy được biết đến với thể loại gì và các vai diễn mang tính biểu tượng của anh ấy trong "The Duke of Hazzard", "True Grit" và "Đọc Kẻ ngoài vòng pháp luật."


Tất nhiên, John Wayne không tham gia "The Duke s of Hazzard" và theo như tôi có thể nói, "Red Dead Outlaw" thậm chí không phải là một bộ phim — mặc dù nó có vẻ giống thể loại phim mà John Wayne sẽ đóng vai chính. TRONG.

Trò chuyện với RTX dường như ít bị ảo giác hơn khi nó không biết điều gì đó về tệp hoặc video YouTube mà bạn đã cung cấp. Nó thường nêu rõ rằng nguồn bạn cung cấp không chứa thông tin bạn đã hỏi.


Tuy nhiên, đôi khi nó không. Điều này trở nên đáng chú ý hơn khi bạn cung cấp nhiều tệp cùng một lúc. Tôi lấy "Frankenstein" và "The Raven" từ Project Gutenberg và đưa chúng vào Chat with RTX, rồi hỏi nó tại sao Tiến sĩ Frankenstein lại ra lệnh cho con quái vật ăn con quạ. Nó cho tôi biết một cách chính xác rằng Tiến sĩ Frankenstein không ra lệnh cho con quái vật giết con quạ, nhưng sau đó tuyên bố rằng Tiến sĩ Frankenstein đang cố gắng liên kết suy nghĩ của mình với thông điệp của con chim.


Vấn đề là Tiến sĩ Frankenstein và Raven tồn tại trong những câu chuyện hoàn toàn riêng biệt—Trò chuyện với RTX chỉ là trộn lẫn và kết hợp các yếu tố câu chuyện để có được câu trả lời nghe có vẻ mạch lạc.

Những vấn đề này không phải chỉ xảy ra với Chat with RTX cũng như các mẫu mà nó sử dụng, Mistral 7B hoặc Llama 13B. Khi phần cứng của người tiêu dùng ngày càng nhanh hơn và các mô hình phức tạp được tối ưu hóa hơn, công nghệ sẽ trở nên đáng tin cậy hơn. Hiện tại, nếu bạn giữ mọi thứ đơn giản và không làm quá tải thông tin, Trò chuyện với RTX có thể cung cấp một cách thú vị và hữu ích để tương tác với các tài liệu. Chỉ cần nhớ đối xử với mọi điều nó nói với bạn với một chút hoài nghi.