AI có thực sự cần dữ liệu cá nhân của bạn không?

Tác giả AI+, T.Bảy 14, 2024, 02:27:50 CHIỀU

« Chủ đề trước - Chủ đề tiếp »

0 Thành viên và 2 Khách đang xem chủ đề.

Luôn luôn bảo vệ dữ liệu cá nhân của bạn.

  • AI thiếu khả năng tri giác và chỉ bắt chước sự hiểu biết của con người, dựa vào bộ dữ liệu để đào tạo.
  • Các nhà phát triển cần dữ liệu người dùng để cải thiện AI, nhưng đảm bảo quyền riêng tư và tin cậy là điều cần thiết.
  • Người dùng nên tuân theo các quy tắc an toàn tiêu chuẩn trên Internet khi tương tác với AI để bảo vệ thông tin cá nhân.


Khi AI trở nên phổ biến hơn và mối lo ngại ngày càng tăng về cách bảo vệ dữ liệu người dùng, điều quan trọng là phải hiểu tại sao điều này lại khác với những lo ngại về bảo mật internet cũ trong 20 năm qua. Đáng ngạc nhiên là giải pháp có thể là sử dụng các quy tắc an toàn Internet cũ mà chúng ta vẫn luôn sử dụng.

1. Dữ liệu cá nhân gì?

Chúng tôi cho rằng hiện tại công nghệ bảo mật đã phát triển đủ để các nhà phát triển AI sẽ bảo mật thông tin cá nhân của chúng tôi như tên, email và thông tin thanh toán. Tuy nhiên, ngày càng có nhiều công ty có ít nhất một số tính năng AI tổng quát đang bổ sung thêm quyền sử dụng miễn phí lời nhắc của người dùng và phản hồi AI vào các điều khoản và điều kiện của họ.

Điều này có nghĩa là con người có thể đang xem xét dữ liệu đó. Nếu bạn đang sử dụng ChatGPT để lập kế hoạch cho kỳ nghỉ thì điều đó có thể không thành vấn đề. Nếu bạn yêu cầu GPT gỡ lỗi một số mã độc quyền hoặc chỉnh sửa các hợp đồng bí mật trên Adobe thì đó có thể là một vấn đề.

2. AI sáng tạo được đào tạo như thế nào?

Với tư cách là một nhà đào tạo AI, tôi và hàng trăm nhà đào tạo khác đã viết các lời nhắc về AI và các câu trả lời tương ứng để đóng góp vào một tập dữ liệu khổng lồ nhằm đào tạo các LLM cách phản hồi. Hầu hết AI đều được đào tạo với các tập dữ liệu giống như tập dữ liệu tôi đang làm việc và chúng đóng góp cho mô hình khác với các thuật toán xử lý ngôn ngữ tự nhiên tạo thành khuôn khổ của hầu hết các mô hình AI tổng quát. Cách tạo tập dữ liệu là độc quyền vì tập dữ liệu là một cách khác để tạo nên sự độc đáo cho mô hình AI.

3. Tại sao nhà phát triển cần dữ liệu người dùng?

Mặc dù công nghệ AI ở một số dạng đã tồn tại từ năm 1955, nhưng công nghệ ở dạng hiện tại vẫn còn mới. Các công ty đang cố gắng kiếm tiền từ công nghệ mới này bằng cách đặt hàng AI mới hoặc AI tùy chỉnh cho phần mềm của họ. Có rất ít hoặc không có dữ liệu về cách người bình thường sử dụng AI, đặc biệt là khi nhiều người bình thường hoàn toàn không sử dụng nó. AI có thể cải thiện các chương trình và ứng dụng máy tính như thế nào? Làm thế nào nó có thể làm cho mọi việc dễ dàng hơn? Một phàn nàn phổ biến về AI là nó bị đưa vào các ứng dụng hoặc trang web hàng ngày ở những nơi không mong muốn hoặc không cần thiết. Điều này có thể gây nhầm lẫn hoặc giảm hiệu quả cho người dùng các ứng dụng và trang web đó. Câu ngạn ngữ cổ, "Nếu nó không bị hỏng, thì đừng sửa nó" hiện lên trong đầu bạn!

Một cách mà các nhà phát triển và khách hàng của họ có thể giải quyết vấn đề này là sử dụng con người để đọc lời nhắc của người dùng cuối, phân loại cách sử dụng AI và đánh giá mức độ hoạt động của AI. Các nhà phát triển, chuyên gia tiếp thị và nhà khoa học xã hội cần biết cách chúng ta sử dụng AI vì điều đó sẽ cho họ biết AI có thể giúp đỡ mọi người như thế nào thay vì khiến họ khó chịu. Cách duy nhất phía trước là họ nghiên cứu lời nhắc của người dùng cuối. Tức là thông tin bạn đã cung cấp cho dịch vụ AI khi sử dụng dịch vụ đó. Tin vui là hầu hết các ứng dụng AI đều cho phép bạn từ chối thu thập dữ liệu. Họ cần dữ liệu người dùng và chất lượng là vấn đề quan trọng, nhưng hầu hết dữ liệu của người dùng này cũng hữu ích như dữ liệu của người dùng khác.

4. Cách các nhà phát triển có thể bảo vệ quyền riêng tư của chúng ta

Hầu hết các nhà phát triển đều khẳng định rằng để cải thiện AI đồng thời bảo vệ quyền riêng tư của người dùng, các lời nhắc luôn được tách biệt khỏi các tài khoản đã viết chúng. Nếu điều đó đúng, sẽ không có cách nào để con người đánh giá dữ liệu để liên kết lời nhắc với một người cụ thể. Cho đến nay, chưa có công ty AI lớn nào công bố bất kỳ loại vi phạm bảo mật nào liên quan đến dữ liệu người dùng, nhưng tiềm năng là có. Thật không may, trừ khi một công ty bị tấn công, chúng tôi sẽ không biết họ an toàn đến mức nào với dữ liệu của chúng tôi. Một tùy chọn khác thường có trên các ứng dụng AI như Google Gemini, Facebook/Instagram và thậm chí Adobe đang cho phép người dùng từ chối chia sẻ dữ liệu của họ. Một lần nữa, điều này đòi hỏi người dùng cuối phải tin tưởng rằng nhà phát triển sẽ không sử dụng dữ liệu. Vì không có cách nào để chúng tôi biết dữ liệu của mình được bảo mật như thế nào với các công ty này nên chúng tôi nên làm những gì có thể để hành động có trách nhiệm với dữ liệu của mình.

5. Làm thế nào chúng ta có thể tự bảo vệ mình?

Theo một cách nào đó, lời nhắc của người dùng cuối là phản hồi của chúng tôi với nhà phát triển về AI. Bất kỳ AI nào không được ai sử dụng sẽ tỏ ra không cần thiết với loại dữ liệu này. Tuy nhiên, cho đến khi đạt được mức độ tin cậy nhất định, tốt nhất bạn nên tuân theo các quy tắc tiêu chuẩn về an toàn trên Internet khi viết lời nhắc. Không nhập bất kỳ thông tin cá nhân nào vào AI như tên, địa chỉ hoặc số ID của bạn. Giả sử rằng mọi thứ bạn nhập vào ChatGPT, chatbot hoặc trình tạo hình ảnh sẽ luôn có trên Internet mở. Cho đến khi các nhà phát triển nhận được sự tin tưởng của chúng tôi, bạn nên tự mình quản lý dữ liệu của mình nhiều nhất có thể.