Đừng tin tưởng ChatGPT để làm toán

Tác giả sysadmin, T.Năm 06, 2023, 02:15:47 CHIỀU

« Chủ đề trước - Chủ đề tiếp »

0 Thành viên và 2 Khách đang xem chủ đề.

Đừng tin tưởng ChatGPT để làm toán


Điều quan trọng là phải kiểm tra tính xác thực của mọi thứ đến từ ChatGPT, Bing Chat, Google Bard hoặc bất kỳ chatbot nào khác. Dù bạn có tin hay không, điều đó đặc biệt đúng với toán học. Đừng cho rằng ChatGPT có thể làm toán. Các chatbot AI hiện đại giỏi viết sáng tạo hơn là đếm và số học.


1. Chatbot không phải là máy tính

Như mọi khi, khi làm việc với AI, kỹ thuật nhanh chóng là rất quan trọng. Bạn muốn cung cấp nhiều thông tin và soạn thảo cẩn thận lời nhắc văn bản của mình để nhận được phản hồi tốt.

Nhưng ngay cả khi bạn nhận được một đoạn logic hoàn hảo trong phản hồi, bạn có thể liếc nhìn vào giữa nó và nhận ra ChatGPT đã mắc lỗi dọc theo dòng 1+1=3. Tuy nhiên, ChatGPT cũng thường mắc lỗi logic—và tính năng này cũng không tốt lắm.

Yêu cầu một mô hình ngôn ngữ lớn hoạt động như một máy tính cũng giống như yêu cầu một máy tính viết một vở kịch—bạn mong đợi điều gì? Đó không phải là những gì nó dành cho.

Thông điệp chính của chúng tôi ở đây: Điều quan trọng là phải kiểm tra kỹ hoặc kiểm tra ba lần hoạt động của AI. Điều đó không chỉ dành cho toán học.

Dưới đây là một số ví dụ về ChatGPT không thành công. Chúng tôi đã sử dụng ChatGPT miễn phí dựa trên gpt-3.5-turbo cho bài viết này cũng như Bing Chat, dựa trên GPT 4. Vì vậy, mặc dù ChatGPT Plus với GPT 4 sẽ hoạt động tốt hơn phiên bản ChatGPT miễn phí, nhưng bạn sẽ trải nghiệm những vấn đề này ngay cả với một chatbot AI hàng đầu.

2. ChatGPT không thể đếm

ChatGPT và Bing dường như không đáng tin cậy để đếm danh sách các mục. Nó có vẻ giống như một nhiệm vụ cơ bản—nhưng đừng dựa vào việc nhận được câu trả lời đáng tin cậy.

Chúng tôi đã cung cấp cho ChatGPT một cột số và yêu cầu nó đếm số lần xuất hiện của một trong các số đó. (Bạn không cần phải tự đếm: Câu trả lời đúng là số 100 xuất hiện 14 lần.)


Ngay cả khi bạn sửa ChatGPT và nó xin lỗi và đưa ra câu trả lời mới, bạn sẽ không nhất thiết nhận được câu trả lời đúng.

ChatGPT thường hành động như một người điên cuồng cố gắng che đậy lỗi lầm và đưa ra câu trả lời cho bạn—bất kỳ câu trả lời nào—để giúp bạn thoát khỏi sự phản đối. Nó thực sự rất sống động như thật!

Như thường lệ, một trong những vấn đề lớn là ChatGPT hoàn toàn chắc chắn đến mức nào về tất cả các câu trả lời của nó, ngay cả khi nó bắn các câu trả lời khác nhau vào bạn.


Chúng tôi đã thử GPT 4 qua Bing Chat của Microsoft và gặp sự cố tương tự. Bing đã quyết định viết một số mã Python để giải quyết vấn đề hóc búa này, nhưng nó cũng không tìm được câu trả lời đúng. (Bing không thực sự chạy mã.)


3. ChatGPT đấu tranh với các vấn đề logic toán học

Nếu bạn đưa cho ChatGPT một "bài toán đố" toán học, thì bạn sẽ thường thấy những khúc mắc logic kỳ lạ khiến bạn không thể tìm được câu trả lời đúng

Chúng tôi đã cung cấp cho ChatGPT một bài toán dựa trên trái cây phản ánh điều mà ai đó có thể hỏi nếu họ đang cố gắng cân bằng lại danh mục đầu tư bằng cách phân bổ khoản đóng góp giữa các quỹ khác nhau—hoặc có lẽ chỉ cần mua nhiều trái cây và gắn bó với danh mục đầu tư dựa trên trái cây cho nhà đầu tư đói.


ChatGPT bắt đầu ổn nhưng nhanh chóng đi chệch hướng thành logic không có ý nghĩa gì và sẽ không đưa ra câu trả lời chính xác.


Bạn không cần phải lần theo từng bước ngoặt để nhận ra rằng câu trả lời cuối cùng là không chính xác.


ChatGPT cũng sẽ thường xuyên tìm hiểu và tranh luận với bạn về các phản hồi của nó. (Một lần nữa, đó là hành vi rất giống con người.)

Trong trường hợp này, ChatGPT lập luận rằng này, nó không mang lại cho bạn câu trả lời đúng—nhưng nó giúp bạn tiến gần hơn đến tỷ lệ mong muốn của mình so với trước đây! Điều đó khá buồn cười.


Đối với bản ghi, Trò chuyện Bing của Microsoft dựa trên GPT 4 cũng gặp khó khăn với vấn đề này, cho chúng tôi một câu trả lời rõ ràng là không chính xác. Logic của GPT 4 cũng nhanh chóng bị sai lệch ở đây.


Chúng tôi khuyên bạn không nên cố gắng tuân theo mọi khúc ngoặt của logic—rõ ràng là câu trả lời là không chính xác.


Khi chúng tôi chỉ ra câu trả lời của Bing là không chính xác, nó tiếp tục tranh cãi với chúng tôi trong vòng tròn, đưa ra câu trả lời sai sau câu trả lời sai.


4. ChatGPT cũng không thể làm số học một cách đáng tin cậy

Điều đáng chú ý là ChatGPT đôi khi cũng bị mang đi và cũng nêu sai số học cơ bản. Chúng ta đã thấy các câu trả lời hợp lý cho các bài toán có phép tính sai tương tự như 1+1=3 smack-dab ở giữa câu trả lời hợp lý.

Hãy nhớ kiểm tra, kiểm tra kỹ và kiểm tra ba lần mọi thứ bạn nhận được từ ChatGPT và các chatbot AI khác.