5 công nghệ AI mà tin tặc có thể sử dụng theo những cách mới khủng khiếp

Tác giả sysadmin, T.Hai 10, 2023, 10:13:23 SÁNG

« Chủ đề trước - Chủ đề tiếp »

0 Thành viên và 1 Khách đang xem chủ đề.

5 công nghệ AI mà tin tặc có thể sử dụng theo những cách mới khủng khiếp


Các công nghệ AI có thể đang phá vỡ nhiều ngành công nghiệp, nhưng ít nhất trong hầu hết các trường hợp, chúng ta có thể thấy chúng sẽ hữu ích hơn là có hại về lâu dài như thế nào. Tuy nhiên, những công cụ mới này cũng đang mở ra nhiều cơ hội mới cho những loại bất chính.


1. Ngôn ngữ tự nhiên AI cho các cuộc tấn công lừa đảo tăng cường

Có thể hiểu và tạo ra ngôn ngữ tự nhiên của con người là một trong những mục tiêu chính của nghiên cứu AI từ những ngày đầu tiên. Ngày nay, chúng ta có sản xuất giọng nói tổng hợp, chatbot tinh vi cao, trình tạo văn bản ngôn ngữ tự nhiên và nhiều công nghệ điều khiển bằng AI có liên quan khác.

Các ứng dụng này rất phù hợp cho các cuộc tấn công lừa đảo, trong đó tin tặc giả làm các thực thể hợp pháp và đại diện của chúng để lấy thông tin nhạy cảm từ mọi người. Với những công nghệ mới này, bạn có thể yêu cầu các tác nhân AI mạo danh mọi người thông qua email, gọi điện thoại, nhắn tin nhanh hoặc bất cứ nơi nào khác mà con người nói chuyện với nhau thông qua hệ thống máy tính.

Không giống như lừa đảo mà chúng ta biết, đây sẽ giống như lừa đảo "spear" được tăng cường, trong đó các nỗ lực được nhắm mục tiêu vào các cá nhân cụ thể có thông tin cụ thể về họ để làm cho lừa đảo hiệu quả hơn. Ví dụ: phần mềm AI có thể giả làm ông chủ của ai đó và yêu cầu trả tiền vào tài khoản trong một biến thể lừa đảo được gọi là lừa đảo CEO.

2. Kỹ thuật xã hội Deepfaked

Kỹ thuật xã hội là một hoạt động trong lĩnh vực hack nhằm vào các điểm yếu trong tâm lý và hành vi của con người để vượt qua các biện pháp an ninh công nghệ khó khăn. Ví dụ: một tin tặc có thể gọi điện cho thư ký của một nhân vật quan trọng đóng giả là công nhân vệ sinh, hỏi họ về nơi đổ rác hiện tại. Sau đó, tội phạm đi đến địa điểm đó để tìm kiếm các tài liệu bị loại bỏ hoặc các manh mối khác có thể được ghép lại với nhau để tạo ra các vụ khai thác.

Các hệ thống học sâu có thể tái tạo khuôn mặt và giọng nói (được gọi là  deepfakes ) đã phát triển đến mức có thể sử dụng chúng trong thời gian thực. Có các dịch vụ như Podcastle's Revoice  và Voicebot AI nơi bạn có thể gửi các mẫu giọng nói của chính mình và sau đó chuyển văn bản thành giọng nói giống như bạn. Về nguyên tắc, công nghệ như thế này có thể được sử dụng để sao chép giọng nói của bất kỳ ai. Sau đó, tất cả những gì bạn phải làm là gọi điện thoại hoặc gọi video cho ai đó mạo danh bất kỳ ai mà bạn thích, với các nhân vật của công chúng là mục tiêu dễ dàng nhất.

3. Bẻ khóa mã thông minh hơn và phát hiện lỗ hổng tự động

Con người phải mất hàng giờ đồng hồ để lùng sục các dòng mã để tìm kiếm các lỗ hổng, để sửa chúng hoặc khai thác chúng. Giờ đây, chúng ta đã thấy rằng các mô hình máy học như ChatGPT có thể vừa viết mã vừa nhận ra các lỗ hổng trong mã đã gửi, điều này mở ra khả năng AI có thể viết phần mềm độc hại sớm hơn.

4. Phần mềm độc hại học và thích ứng thông qua học máy

Điểm mạnh chính của học máy là cách nó có thể lấy lượng dữ liệu khổng lồ và trích xuất các quy tắc và thông tin chi tiết hữu ích từ dữ liệu đó. Thật hợp lý khi kỳ vọng rằng phần mềm độc hại trong tương lai có thể tận dụng khái niệm chung này để nhanh chóng thích ứng với các biện pháp đối phó.

Điều này có thể dẫn đến một tình huống trong đó cả hệ thống phần mềm độc hại và chống phần mềm độc hại đều trở thành các hệ thống máy học gây chiến một cách hiệu quả, nhanh chóng thúc đẩy lẫn nhau đạt đến mức độ tinh vi cao hơn.

5. AI sáng tạo để tạo dữ liệu giả

Các công nghệ AI giờ đây có thể tạo ra hình ảnh, video, văn bản và âm thanh dường như không có thật. Những công nghệ này đã đạt đến mức mà các chuyên gia không thể biết chúng là giả (ít nhất là không thể nhìn thoáng qua). Điều này có nghĩa là bạn có thể mong đợi một cơn lũ dữ liệu giả mạo trên internet trong tương lai.

Ví dụ: hiện tại, các hồ sơ giả mạo trên mạng xã hội có thể khá dễ phát hiện, do đó, việc tránh các trò lừa đảo bắt cá hoặc các chiến dịch bot đơn giản để gieo rắc thông tin sai lệch không quá khó đối với những khán giả có hiểu biết. Tuy nhiên, những công nghệ AI mới này có thể tạo ra các hồ sơ giả không thể phân biệt được với hồ sơ thật.

"Những người" có khuôn mặt độc đáo  với ảnh được tạo về toàn bộ cuộc sống giả mạo của họ, thông tin hồ sơ mạch lạc độc đáo và toàn bộ mạng lưới bạn bè và gia đình bao gồm những người giả mạo khác. Tất cả trò chuyện với nhau như người thật. Với các mạng lưới đại lý trực tuyến giả mạo như thế này, những kẻ độc hại có thể thực hiện nhiều chiến dịch lừa đảo và thông tin sai lệch.

6. Trí tuệ nhân tạo vừa là thuốc vừa là bệnh?

Không thể tránh khỏi việc một số người sẽ thử và sử dụng bất kỳ công nghệ mới nào vì những lý do xấu. Điều làm nên sự khác biệt của thế hệ công nghệ AI mới này là cách nó nhanh chóng vượt xa khả năng phát hiện của con người.

Điều này có nghĩa là, hơi trớ trêu thay, rằng biện pháp phòng thủ tốt nhất của chúng ta chống lại các con đường tấn công do AI tăng cường này sẽ là các công nghệ AI khác dùng lửa để chữa cháy. Điều này dường như khiến bạn không còn lựa chọn nào khác ngoài việc xem họ đánh nhau và hy vọng rằng "những người tốt" sẽ đứng đầu. Tuy nhiên, có một số điều bạn có thể làm để luôn được bảo vệ khi trực tuyến, tránh mã độc tống tiền và phát hiện các trò gian lận trên các nền tảng phổ biến như  Facebook, Facebook Marketplace, PayPal và LinkedIn.