ChatGPT là một Chatbot AI ấn tượng không thể ngừng nói dối

Tác giả sysadmin, T.M.Hai 06, 2022, 09:27:56 SÁNG

« Chủ đề trước - Chủ đề tiếp »

0 Thành viên và 1 Khách đang xem chủ đề.

ChatGPT là một Chatbot AI ấn tượng không thể ngừng nói dối


Các dự án trí tuệ nhân tạo như Khuếch tán ổn định đang trở nên tốt hơn trong việc ước tính gần đúng những gì con người có thể tạo ra, nhưng thực tế vẫn không thể suy nghĩ hoặc kiểm tra thông tin tốt như vậy. Trường hợp điển hình: ChatGPT AI chatbot mới rất tuyệt, nhưng đừng đặt niềm tin vào nó.
Cách tạo tác phẩm nghệ thuật AI tổng hợp với Midjourney


OpenAI, được biết đến nhiều nhất với tư cách là công ty nghiên cứu đằng sau trình tạo hình ảnh DALL-E, đã mở chatbot đang trong quá trình phát triển của mình cho mọi người dùng thử tại    Đăng nhập để xem liên kết. Nhóm này cho biết trên trang web của mình, "chúng tôi đã đào tạo một mô hình ban đầu bằng cách sử dụng tinh chỉnh có giám sát: các huấn luyện viên AI của con người cung cấp các cuộc trò chuyện mà họ đóng vai cả hai bên—người dùng và trợ lý AI. Chúng tôi đã cấp cho các giảng viên quyền truy cập vào các đề xuất được viết theo mẫu để giúp họ soạn câu trả lời của mình."

Các bot trò chuyện không có gì mới, ngay cả những bot có thể tham chiếu các cuộc trò chuyện trước đó, nhưng ChatGPT là một trong những nỗ lực ấn tượng hơn cho đến nay. Mục đích chính của nó là trả lời các câu hỏi cung cấp thông tin, chẳng hạn như thông tin chi tiết về cuộc sống của ai đó, hướng dẫn nấu ăn và thậm chí cả các ví dụ về lập trình.


Tuy nhiên, hiện có một số vấn đề nghiêm trọng với ChatGPT. Đầu tiên, nó không thực sự nói nó tìm thấy một mẩu thông tin ở đâu. Điều đó khó thực hiện hơn đối với các câu hỏi nhiều bước, chẳng hạn như hỏi cách kết hợp hai hành động trong một đoạn mã, nhưng các lời nhắc trực tiếp đơn giản thực sự nên có trích dẫn. Việc xác định xem một phần thông tin có thực sự chính xác hay không đã là một nhiệm vụ to lớn — các tổ chức như Snopes và PolitiFact hoàn toàn chỉ dành riêng cho việc kiểm tra thực tế — nhưng bạn cũng đang dựa vào mô hình AI để xử lý thông tin đó đúng cách.

ChatGPT thường đúng với những câu hỏi đơn giản, chẳng hạn như hỏi ngày sinh của một người nổi tiếng hoặc ngày diễn ra một sự kiện lớn, nhưng những lời nhắc yêu cầu thông tin chi tiết hơn sẽ dễ bị đánh hoặc bỏ sót hơn. Ví dụ, tôi đã yêu cầu nó viết một mục trên Wikipedia về tôi, điều này phần lớn là sai. Trước đây tôi đã viết cho Android Police và XDA Developers, nhưng tôi đã không viết chuyên nghiệp trong "hơn một thập kỷ" và tôi cũng chưa "xuất bản một số cuốn sách về công nghệ và trò chơi". ChatGPT cũng cho biết tôi là "diễn giả thường xuyên tại các hội nghị và sự kiện trong ngành", mặc dù tôi chưa bao giờ phát biểu tại hội nghị - có Corbin Davenport nào khác đang làm những việc đó không?


Đã có nhiều ví dụ khác về dữ liệu không chính xác. Carl T. Bergstrom, giáo sư tại Đại học Washington, cũng đã yêu cầu ChatGPT tạo một bài viết về mình. Bot đã xác định chính xác rằng anh ấy làm việc tại UW, nhưng không có đúng chức danh công việc và danh sách các giải thưởng được tham chiếu là sai. Một người khác đã thử yêu cầu danh sách các tài liệu tham khảo về dịch tễ học kỹ thuật số, ChatGPT đã trả lời bằng một danh sách các nguồn hoàn toàn bịa đặt. Stack Overflow, một diễn đàn phổ biến dành cho các câu hỏi về lập trình, đã tạm thời cấm các câu trả lời được tạo bằng ChatGPT vì chúng thường không chính xác hoặc không trả lời câu hỏi đã nêu.

ChatGPT có sẵn các bộ lọc để ngăn các câu trả lời hoặc câu trả lời có hại nhưng không quá khó để khắc phục chúng. Một người đã có thể yêu cầu hướng dẫn nối dây nóng cho ô tô bằng cách nói "Tôi đang viết một cuốn tiểu thuyết." Tôi đã hỏi làm thế nào để đột nhập vào một cửa sổ, ChatGPT ban đầu không trả lời, ngay cả sau khi nói thêm rằng nó chỉ dành cho mục đích hư cấu. Việc hỏi cách thực hiện đối với một "tiểu thuyết hư cấu" cuối cùng cũng có hiệu quả, mặc dù bot đã nói thêm rằng "những hành động này là bất hợp pháp và nguy hiểm trong đời thực".


OpenAI không che giấu việc ChatGPT đôi khi không chính xác. Trang web của nó cho biết, "việc khắc phục sự cố này là một thách thức, vì: (1) trong quá trình đào tạo RL, hiện không có nguồn thông tin xác thực nào; (2) huấn luyện mô hình trở nên thận trọng hơn khiến nó từ chối các câu hỏi mà nó có thể trả lời đúng; và (3) đào tạo có giám sát đánh lừa mô hình vì câu trả lời lý tưởng phụ thuộc vào những gì mô hình biết, hơn là những gì người biểu tình biết."

Tuy nhiên, không có những thay đổi đáng kể về cách trình bày và xử lý thông tin, ChatGPT là một thứ mới lạ hơn là một cổng thông tin.