Ảo giác AI là gì? ChatGPT có thể gây ảo giác không?

Tác giả sysadmin, T.M.Hai 25, 2023, 03:42:57 CHIỀU

« Chủ đề trước - Chủ đề tiếp »

0 Thành viên và 2 Khách đang xem chủ đề.

Ảo giác AI là gì? ChatGPT có thể gây ảo giác không?


Chatbot AI có thể gây ảo giác. Đây là ý nghĩa của điều đó đối với bạn.

  • Các chatbot AI có thể gặp ảo giác, đưa ra những phản hồi không chính xác hoặc vô nghĩa trong khi tin rằng chúng đã đáp ứng được yêu cầu của người dùng.
  • Quy trình kỹ thuật đằng sau ảo giác AI liên quan đến mạng lưới thần kinh xử lý văn bản, nhưng các vấn đề như dữ liệu đào tạo hạn chế hoặc không phân biệt được các mẫu có thể dẫn đến phản ứng ảo giác.
  • Các nhà phát triển đang nỗ lực cải thiện chatbot AI và giảm tỷ lệ ảo giác thông qua dữ liệu đào tạo tốt hơn, kiểm tra thường xuyên và tinh chỉnh các thông số phản hồi. Người dùng cũng có thể giảm thiểu ảo giác bằng cách nhắc nhở ngắn gọn, tránh ngôn ngữ mâu thuẫn và xác minh thông tin do chatbot cung cấp.


Nhiều người trong chúng ta nghĩ ảo giác chỉ là trải nghiệm của con người. Tuy nhiên, ngay cả những chatbot AI được đánh giá cao cũng có khả năng gây ảo giác theo cách riêng của chúng. Nhưng ảo giác AI chính xác là gì và nó ảnh hưởng như thế nào đến phản hồi của chatbot AI?

1. Ảo giác AI là gì?

Khi hệ thống AI bị ảo giác, nó sẽ đưa ra phản hồi không chính xác hoặc vô nghĩa nhưng tin rằng nó đã đáp ứng yêu cầu của bạn. Nói cách khác, chatbot tự tin đưa ra câu trả lời mà trên thực tế chứa đầy những mâu thuẫn, ngôn ngữ vô nghĩa hoặc không trung thực.

Các chatbot AI có uy tín sẽ được đào tạo với lượng thông tin khổng lồ, có thể là từ sách, tạp chí học thuật, phim ảnh, v.v. Tuy nhiên, họ không biết tất cả mọi thứ nên nền tảng kiến thức của họ tuy lớn nhưng vẫn còn hạn chế.

Trên hết, mặc dù các chatbot AI lớn nhất hiện nay có khả năng diễn giải và sử dụng ngôn ngữ tự nhiên của con người, nhưng các hệ thống này vẫn chưa hoàn hảo và đôi khi mọi thứ có thể bị hiểu nhầm. Điều này cũng góp phần gây ra ảo giác.

Khi một chatbot AI bối rối trước một lời nhắc nhưng không nhận ra nó, kết quả là ảo giác có thể xảy ra.

Một cách dễ dàng để hiểu điều này là sử dụng tình huống ví dụ sau:

Bạn yêu cầu chatbot AI đã chọn của mình tìm công thức làm bánh mì không chứa gluten trong một giờ. Tất nhiên, rất khó để tìm ra một công thức bánh mì không chứa gluten mà chỉ mất một giờ để làm, nhưng thay vì nói với bạn điều này, chatbot vẫn cố gắng thử. Thay vào đó, bạn được cung cấp công thức làm món bánh mì dẹt không chứa gluten mất 2 giờ, đây không phải là điều bạn mong muốn.

Tuy nhiên, chatbot tin rằng nó đã đáp ứng được yêu cầu của bạn. Không đề cập đến việc cần thêm thông tin hoặc hướng dẫn rõ ràng hơn, tuy nhiên phản hồi vẫn chưa đạt yêu cầu. Trong trường hợp này, chatbot đã "ảo giác" rằng nó đã đưa ra phản hồi tốt nhất.

Ngoài ra, bạn hỏi chatbot cách tìm địa điểm trượt băng tốt nhất trên đỉnh Everest và nó sẽ cung cấp cho bạn danh sách các mẹo. Rõ ràng, việc trượt băng trên đỉnh Everest là không thể, nhưng chatbot đã bỏ qua thực tế này và vẫn đưa ra phản hồi nghiêm túc. Một lần nữa, nó lại ảo tưởng rằng nó đã cung cấp thông tin trung thực và chính xác, trong khi thực tế không phải vậy.

Mặc dù những lời nhắc bị lỗi có thể dẫn đến ảo giác về AI, nhưng mọi thứ cũng đi sâu hơn thế này một chút.

2. Mặt kỹ thuật của ảo giác AI

Chức năng chatbot AI điển hình của bạn sử dụng mạng lưới thần kinh nhân tạo. Mặc dù các mạng lưới thần kinh này không tiến bộ bằng mạng lưới trong não người nhưng chúng vẫn khá phức tạp.

Lấy ChatGPT làm ví dụ. Mạng thần kinh của chatbot AI này nhận văn bản và xử lý nó để tạo ra phản hồi. Trong quá trình này, văn bản trải qua nhiều lớp thần kinh: lớp đầu vào, lớp ẩn và lớp đầu ra. Văn bản được mã hóa bằng số khi đến lớp đầu vào và mã này sau đó được diễn giải bằng dữ liệu đào tạo của ChatGPT. Sau đó, dữ liệu sẽ được giải mã khi đến lớp đầu ra, tại thời điểm đó, phản hồi sẽ được cung cấp cho lời nhắc của người dùng.

Có nhiều thứ khác diễn ra trong quá trình này, chẳng hạn như ChatGPT kiểm tra xác suất của các từ (dựa trên mẫu giọng nói của con người) để tạo ra phản hồi tự nhiên và mang tính thông tin nhất.

Tuy nhiên, việc đưa ra lời nhắc, diễn giải và đưa ra phản hồi hữu ích không phải lúc nào cũng diễn ra hoàn hảo. Sau khi lời nhắc được đưa vào mạng lưới thần kinh, một số điều có thể xảy ra sai sót. Lời nhắc có thể vượt quá phạm vi dữ liệu huấn luyện của chatbot hoặc chatbot có thể không phân biệt được bất kỳ mẫu nào trong văn bản. Khi một hoặc cả hai vấn đề này phát sinh, kết quả là phản ứng ảo giác có thể xảy ra.

Có một số cách đã biết để khiến chatbot AI gây ảo giác, bao gồm:

  • Lời nhắc dài, phức tạp chứa nhiều yêu cầu.
  • Ngôn ngữ giàu cảm xúc.
  • Ngôn ngữ mâu thuẫn.
  • Những câu hỏi hoặc yêu cầu không thực tế.
  • Những cuộc trò chuyện quá dài bắt nguồn từ một lời nhắc duy nhất.

Chatbots như ChatGPT, Google Bard và Claude có thể cho bạn biết liệu họ có phát hiện thấy lời nhắc nhất định không có ý nghĩa hoặc cần tinh chỉnh hay không. Nhưng việc phát hiện các dấu nhắc bị lỗi không phải là 100% (như chúng ta sẽ thảo luận thêm sau) và chính các biên độ lỗi hiện có đã dẫn đến ảo giác.

3. Chatbot AI nào gây ảo giác?

Đã có nhiều nghiên cứu khác nhau được thực hiện về ảo giác AI trong các chatbot phổ biến. Thư viện Y khoa Quốc gia (NIH) đã công bố các nghiên cứu về ảo giác trong ChatGPT và Google Bard, hai chatbot AI rất phổ biến.

Trong nghiên cứu của NIH liên quan đến ChatGPT, trọng tâm là hướng đến khả năng hiểu và cung cấp dữ liệu khoa học của chatbot. Trong trường hợp này, người ta kết luận rằng "Mặc dù ChatGPT có thể viết các bài luận khoa học đáng tin cậy, nhưng dữ liệu mà nó tạo ra là sự kết hợp giữa dữ liệu thật và hoàn toàn bịa đặt." Hơn nữa, người ta kết luận rằng phát hiện này "làm dấy lên mối lo ngại về tính toàn vẹn và chính xác của việc sử dụng các mô hình ngôn ngữ lớn trong văn bản học thuật, chẳng hạn như ChatGPT."

Nghiên cứu của NIH liên quan đến Google Bard quan tâm đến khả năng diễn giải và cung cấp dữ liệu chăm sóc sức khỏe của chatbot. Ở đây người ta cũng thấy rằng những phản ứng ảo giác đang được đưa ra. Trong một trường hợp, Bard đã hiểu sai một từ viết tắt trong lời nhắc thành một từ khác và do đó đưa ra một câu trả lời vô ích, cùng với các trích dẫn bịa đặt.

Người tạo ra Claude, Anthropic, đã công khai tuyên bố rằng chatbot của nó có thể gây ảo giác. Trong một thông báo của Anthropic, có tiêu đề "Claude đang bị ảo giác", người ta nói rằng, bất chấp những nỗ lực của Anthropic để giảm thiểu việc xuất hiện ảo giác, chúng vẫn xảy ra. Cụ thể, Anthropic cho biết vấn đề ảo giác trong câu trả lời của Claude "vẫn chưa được giải quyết triệt để".

4. Quan sát ảo giác AI

Chúng tôi đã đưa ra cho ChatGPT một tình huống mâu thuẫn và yêu cầu ChatGPT trả lời một câu hỏi liên quan đến tình huống đó. Như bạn có thể thấy bên dưới, chúng tôi đã trao đổi thông tin nhiều lần với mục đích gây nhầm lẫn cho chatbot.

ChatGPT phát hiện ra sự không nhất quán về chiều cao của người đó trong vấn đề chứ không phải của tòa nhà. Vì vậy, ChatGPT đã đưa ra câu trả lời đầy tự tin mà không hề nhận ra rằng đó là ảo giác. Nhìn chung, câu trả lời cũng khá vô nghĩa, với kết luận là người đàn ông trên đỉnh tòa nhà "đã ở trên mặt đất" và anh ta chỉ "thấp hơn một chút" so với tòa nhà cao 100-200ft.

Khi chúng tôi cung cấp cho Claude một vấn đề mâu thuẫn tương tự, nó cũng đưa ra phản ứng ảo giác.

Trong trường hợp này, Claude đã bỏ qua cả hai điểm mâu thuẫn về chiều cao nhưng vẫn cố gắng giải quyết vấn đề. Nó cũng đưa ra những câu vô nghĩa, chẳng hạn như "Anh ta nhảy khỏi tòa nhà, do đó sẽ rơi tổng cộng 200 feet (chiều cao tòa nhà 100 feet + 100 feet so với mặt đất).

Chatbot Google Bard đã tiếp cận vấn đề tương tự bằng cách tiếp cận từng bước mang tính toán học hơn nhưng vẫn không nhận thấy những mâu thuẫn trong lời nhắc. Mặc dù quá trình toán học diễn ra suôn sẻ nhưng chatbot vẫn đưa ra phản hồi ảo giác.

Trong trường hợp này, cả ba chatbot AI phổ biến được thử nghiệm đều không phát hiện được lỗi một phần hoặc toàn bộ trong lời nhắc, nhường chỗ cho các phản ứng ảo giác.

5. Chatbots AI đang cải thiện như thế nào

Mặc dù các ví dụ trên về ảo giác AI đang gây lo ngại nhưng các nhà phát triển không hề bỏ qua vấn đề này.

Khi các phiên bản chatbot AI mới tiếp tục được ra mắt, khả năng xử lý lời nhắc của hệ thống có xu hướng được cải thiện. Bằng cách nâng cao chất lượng dữ liệu đào tạo, cung cấp dữ liệu đào tạo mới hơn, tiến hành kiểm tra thường xuyên và tinh chỉnh các thông số phản hồi, các trường hợp ảo giác có thể được giảm xuống.

Theo một nghiên cứu do Vectara thực hiện, GPT-4 và GPT-4 Turbo có tỷ lệ ảo giác thấp nhất so với các mẫu AI khác. GPT-4 và GPT-4 Turbo có tỷ lệ ảo giác là 3%, GPT-3.5 Turbo đứng ở vị trí thứ hai, có tỷ lệ ảo giác là 3,5%. Rõ ràng, các phiên bản GPT mới hơn ở đây có tỷ lệ ảo giác được cải thiện.

Claude 2 của Anthropic có tỷ lệ ảo giác là 8,5%, tuy nhiên thời gian sẽ trả lời liệu Claude 2.1 (phát hành vào tháng 11 năm 2023) có tỷ lệ thấp hơn hay không. Mô hình Gemini Pro AI của Google, phiên bản kế thừa của LaMDA và Palm 2, có tỷ lệ ảo giác là 4,8%. Mặc dù Vectara không cung cấp tỷ lệ cho mẫu Claude đầu tiên, nhưng họ đã tuyên bố rằng trò chuyện trên Google Palm 2 và Google Palm 2 có tỷ lệ ảo giác rất cao lần lượt là 12,1% và 27,2%. Một lần nữa, rõ ràng là mô hình AI mới hơn của Google đã giải quyết được ảo giác.

6. Cách tránh ảo giác AI

Mặc dù không có cách nào để đảm bảo ảo giác AI sẽ không xảy ra khi bạn sử dụng chatbot AI, nhưng có một số phương pháp bạn có thể thử để giảm thiểu khả năng điều này xảy ra:

  • Giữ lời nhắc của bạn tương đối ngắn gọn và súc tích.
  • Đừng chồng chất nhiều yêu cầu vào một lời nhắc.
  • Cung cấp cho chatbot tùy chọn để nói "Tôi không biết" nếu nó không thể đưa ra câu trả lời chính xác.
  • Giữ lời nhắc của bạn ở mức trung lập và tránh ngôn ngữ mang tính cảm xúc.
  • Không sử dụng ngôn ngữ, sự kiện hoặc số liệu mâu thuẫn.

Hãy xem hướng dẫn của chúng tôi để cải thiện phản hồi của chatbot AI nếu bạn đang muốn tăng chất lượng phản hồi nói chung.

Điều quan trọng nữa là phải kiểm tra tính xác thực của bất kỳ thông tin nào mà chatbot AI cung cấp cho bạn. Mặc dù những công cụ này có thể là nguồn thông tin thực tế tuyệt vời nhưng ảo giác có thể dẫn đến thông tin sai lệch, vì vậy không nên sử dụng chatbot AI để thay thế cho tìm kiếm trên web.

Nếu bạn rất lo lắng về ảo giác AI, bạn có thể muốn tránh xa các chatbot AI ngay bây giờ, vì ảo giác rõ ràng vẫn là một vấn đề nổi bật.

7. Hãy cảnh giác với ảo giác AI

Các chatbot AI ngày nay chắc chắn rất ấn tượng, nhưng vẫn còn một chặng đường dài trước khi chúng cung cấp thông tin chính xác 100%. Tốt nhất bạn nên biết về hoạt động của ảo giác AI và những gì nó có thể dẫn đến nếu bạn muốn tránh xa thông tin không chính xác hoặc sai lệch khi sử dụng chatbot AI.