Các bot AI có dễ bị tấn công bởi kỹ thuật xã hội giống như chúng ta không?

Tác giả sysadmin, T.M.Hai 18, 2023, 01:06:14 CHIỀU

« Chủ đề trước - Chủ đề tiếp »

0 Thành viên và 1 Khách đang xem chủ đề.

Các bot AI có dễ bị tấn công bởi kỹ thuật xã hội giống như chúng ta không?


Có lẽ chatbot không nên tin vào mọi điều con người nói. "Kỹ thuật xã hội" là một chiến thuật đã được thử nghiệm và thử nghiệm mà tin tặc sử dụng để chống lại yếu tố con người trong hệ thống bảo mật máy tính, thường vì nó dễ dàng hơn việc đánh bại công nghệ bảo mật phức tạp. Khi AI mới trở nên giống con người hơn, liệu phương pháp này có hiệu quả với chúng không?


1. Kỹ thuật xã hội là gì?

Đừng nhầm lẫn với khái niệm đáng ngờ về mặt đạo đức trong khoa học chính trị, trong thế giới an ninh mạng kỹ thuật xã hội là nghệ thuật sử dụng thao tác tâm lý để khiến mọi người làm theo ý bạn. Nếu bạn là hacker, những việc bạn muốn mọi người làm bao gồm tiết lộ thông tin nhạy cảm, cung cấp mật khẩu hoặc chỉ trả tiền trực tiếp vào tài khoản của bạn.

Có rất nhiều kỹ thuật hack khác nhau thuộc phạm vi kỹ nghệ xã hội. Ví dụ: việc để lại một ổ flash bị nhiễm phần mềm độc hại nằm xung quanh tùy thuộc vào sự tò mò của con người. Virus Stuxnet đã phá hủy thiết bị tại một cơ sở hạt nhân của Iran có thể đã xâm nhập vào các máy tính đó nhờ ổ USB được cài sẵn.

Nhưng đó không phải là loại kỹ thuật xã hội có liên quan ở đây. Đúng hơn là các cuộc tấn công phổ biến như "lừa đảo trực tuyến" (các cuộc tấn công lừa đảo có chủ đích) và "lấy cớ" (sử dụng danh tính giả để lừa mục tiêu), trong đó việc một người đang trò chuyện với một người khác sẽ dẫn đến hành vi lừa dối, có liên quan ở đây.

Vì "người" trên điện thoại hoặc trong phòng trò chuyện với bạn gần như chắc chắn cuối cùng sẽ là một chatbot AI theo mô tả nào đó, điều này đặt ra câu hỏi liệu nghệ thuật kỹ thuật xã hội có còn hiệu quả đối với các mục tiêu tổng hợp hay không.

2. Bẻ khóa AI đã là một điều

Bẻ khóa chatbot đã là một việc đã được một thời gian và có rất nhiều ví dụ trong đó ai đó có thể thuyết phục chatbot vi phạm các quy tắc ứng xử của chính nó hoặc làm điều gì đó hoàn toàn không phù hợp.

Về nguyên tắc, sự tồn tại và hiệu quả của việc bẻ khóa cho thấy rằng trên thực tế, chatbot có thể dễ bị tấn công bởi kỹ thuật xã hội. Các nhà phát triển Chatbot đã phải liên tục thu hẹp phạm vi của họ và đặt các biện pháp bảo vệ nghiêm ngặt để đảm bảo họ hoạt động đúng mực, điều này dường như đã truyền cảm hứng cho một đợt bẻ khóa khác để xem liệu các biện pháp bảo vệ đó có thể bị lộ hoặc vượt qua hay không.

Chúng tôi có thể tìm thấy một số ví dụ về điều này được đăng bởi người dùng X (trước đây là Twitter), chẳng hạn như Tiến sĩ Paris Buttfield-Addison, người đã đăng ảnh chụp màn hình rõ ràng đang cho thấy cách một chatbot ngân hàng có thể bị thuyết phục để đổi tên.

3. Bot có thể được bảo vệ khỏi kỹ thuật xã hội không?

Ý tưởng rằng, chẳng hạn, một chatbot ngân hàng có thể bị thuyết phục từ bỏ thông tin nhạy cảm, là đúng đắn. Sau đó, một lần nữa, tuyến phòng thủ đầu tiên chống lại kiểu lạm dụng đó là tránh cho các chatbot này quyền truy cập vào những thông tin đó ngay từ đầu. Vẫn còn phải xem chúng ta có thể giao bao nhiêu trách nhiệm cho phần mềm như thế này mà không có sự giám sát của con người.

Mặt trái của điều này là để các chương trình AI này trở nên hữu ích, chúng cần có quyền truy cập vào thông tin. Vì vậy, đây thực sự không phải là một giải pháp để ngăn chặn thông tin của họ. Ví dụ: nếu một chương trình AI đang xử lý việc đặt phòng khách sạn, nó cần quyền truy cập vào thông tin chi tiết của khách để thực hiện công việc của mình. Khi đó, điều đáng sợ là một kẻ lừa đảo hiểu biết có thể nói suông rằng AI đó sẽ tiết lộ ai đang ở tại khách sạn đó và ở phòng nào.

Một giải pháp tiềm năng khác có thể là sử dụng "bạn bè" hệ thống trong đó một chatbot AI giám sát một chatbot khác và can thiệp khi nó bắt đầu đi chệch hướng. Việc có người giám sát AI xem xét mọi phản hồi trước khi chuyển cho người dùng có thể là một cách để giảm thiểu loại phương pháp này.

Cuối cùng, khi bạn tạo ra phần mềm bắt chước ngôn ngữ và logic tự nhiên, có lý do là các kỹ thuật thuyết phục tương tự áp dụng cho con người sẽ hoạt động trên ít nhất một số hệ thống đó. Vì vậy, có thể các hacker tương lai sẽ muốn đọc Cách giành được bạn bè & Gây ảnh hưởng đến mọi người ngay bên cạnh các cuốn sách về an ninh mạng.