Deepfakes đang thúc đẩy một loại tội phạm mạng mới như thế nào

Tác giả sysadmin, T.Mười 14, 2022, 03:58:56 CHIỀU

« Chủ đề trước - Chủ đề tiếp »

0 Thành viên và 1 Khách đang xem chủ đề.

Deepfakes đang thúc đẩy một loại tội phạm mạng mới như thế nào


Việc tạo deepfakes ngày càng dễ dàng hơn và chúng trở nên thuyết phục hơn bao giờ hết. Tội phạm mạng đang sử dụng video và âm thanh giả mạo để tống tiền nạn nhân bằng cách thêm "tính xác thực giả" đáng tin cậy vào các trò gian lận của chúng.


1. Chỉnh sửa niềm tin của mọi người

Kể từ khi người đầu tiên nói "máy ảnh không bao giờ nói dối", đã có nhiều người chứng minh điều ngược lại. Các nhiếp ảnh gia sáng tạo vào cuối thế kỷ 19 đã sử dụng các thủ thuật đơn giản để tạo ra những bức ảnh giả.

Gag "người trong chai" đã tận hưởng khoảnh khắc nổi tiếng của nó. Tự chụp ảnh trong tư thế phù hợp. Phát triển và in ảnh ở kích thước thích hợp. Cắt hình ảnh của bạn, cho vào chai thủy tinh và chụp một bức ảnh khác của bạn đang cầm chai. Này trước, bạn có hình ảnh của mình đang cầm một cái chai có chứa một phiên bản thu nhỏ của chính mình.

Tất nhiên, ngày nay chúng ta có thể làm điều này bằng Photoshop hoặc GIMP. Và chúng tôi biết rằng với đủ kỹ năng và sự sáng tạo, các chuyên gia có thể tạo ra những hình ảnh trông hoàn toàn chân thực nhưng lại chứa đựng những yếu tố bất khả thi. Nghịch lý thay, nhận thức đó có thể khiến chúng ta nghi ngờ những bức ảnh chân thực. Một hình ảnh đáng kinh ngạc mà tuyệt đối ghi lại chỉ xảy ra một lần trong đời luôn được chào đón bởi câu hỏi "Đó có phải là sự thật không?"

Một bức ảnh chụp một người thu nhỏ trong chai rõ ràng là bị làm giả. Nhưng hãy thay đổi một bức ảnh để nó cho thấy điều gì đó có thể là sự thật và cũng giống như thật, và một số người sẽ tin vào điều đó.

Đây không còn là về những trò gags trực quan nữa. Đó là vũ khí hóa hình ảnh. Đó là kỹ thuật xã hội.

2. Chuyển động Hình ảnh và Bộ đàm

Ngay sau khi phim chuyển động trở thành một cảnh tượng xã hội, các nhà làm phim tiên phong đã sử dụng các hiệu ứng và thủ thuật đặc biệt để giải quyết hai vấn đề. Một người đang quay một cái gì đó thực sự có thể xảy ra nhưng không thực tế để quay, và người kia quay một cái gì đó đơn giản là không thể. Giải pháp cho điều này đã sinh ra ngành công nghiệp hiệu ứng đặc biệt khổng lồ mà chúng ta có ngày nay.

Việc bổ sung âm thanh và lời thoại đã chứng kiến sự sụp đổ của phim câm và sự gia tăng của những người nói chuyện. Một số ngôi sao im lặng đã không thực hiện chuyển đổi. Giọng của họ không đúng, hoặc họ không thể trình bày lời thoại một cách thuyết phục và đúng thời điểm. Cho đến khi lạm dụng thuốc, không có giải pháp nào khác hơn là chọn một người khác.

Ngày nay, chúng tôi cũng đang thao túng giọng nói của diễn viên. George Clooney có thực sự hát trong  O Brother, Where Art Thou ? Không, đó là giọng nói của Dan Tyminski, được máy tính đồng bộ hóa với hình ảnh xúc động của George Clooney.

Các hệ thống có thể thực hiện loại thao tác video và âm thanh này rất lớn và đắt tiền, và chúng cần các chuyên gia để điều khiển chúng. Nhưng kết quả cuối cùng thuyết phục có thể đạt được bằng cách sử dụng phần mềm dễ lấy và tương đối đơn giản sẽ chạy trên phần cứng máy tính hợp lý.

Video và âm thanh có thể không đạt chất lượng Hollywood, nhưng nó chắc chắn đủ tốt để cho phép tội phạm mạng thêm hình ảnh, video và âm thanh giả mạo vào kho vũ khí của chúng.

3. Deepfakes

Thuật ngữ deepfake được đặt ra để mô tả cảnh quay kỹ thuật số được điều khiển để một người nào đó trong video mang khuôn mặt của người khác hoàn toàn. Phần "sâu" của tên bắt nguồn từ "học sâu", một trong những lĩnh vực máy học của trí tuệ nhân tạo. Học máy sử dụng các thuật toán chuyên môn và nhiều dữ liệu để đào tạo mạng nơ-ron nhân tạo nhằm đạt được mục tiêu. Bạn càng có nhiều dữ liệu để đào tạo hệ thống, thì kết quả càng tốt.

Cung cấp cho nó đủ ảnh của một người nào đó và một hệ thống học sâu sẽ hiểu rất rõ đặc điểm sinh lý của khuôn mặt người đó để có thể tìm ra biểu cảm trông như thế nào, từ mọi góc độ. Sau đó, nó có thể tạo hình ảnh khuôn mặt của người đó phù hợp với tất cả các biểu cảm và tư thế đầu của người đó trong video.

Khi những hình ảnh đó được chèn vào video, khuôn mặt mới sẽ khớp với hành động của video một cách hoàn hảo. Vì các biểu cảm khuôn mặt được tạo nhân tạo, đồng bộ hóa môi và chuyển động của đầu giống với biểu cảm của người ban đầu khi quay video thật nên kết quả có thể là giả rất thuyết phục.

Điều này đặc biệt đúng khi hai hình dạng khuôn mặt giống nhau. Deepfake nổi tiếng vẽ bản đồ khuôn mặt của Lynda Carter lên cơ thể của Gal Gadot, kết hợp hai phiên bản của Wonder Woman. Các ví dụ nổi bật khác là Barack Obama và Tom Cruise. Bạn có thể tìm thấy chúng — và nhiều ví dụ khác — trên YouTube.

Các kỹ thuật máy học tương tự có thể được áp dụng cho âm thanh. Với đủ mẫu giọng nói, bạn có thể đào tạo mạng nơ-ron nhân tạo để tạo ra âm thanh đầu ra cao cấp sao chép giọng nói được lấy mẫu. Và bạn có thể làm cho nó nói bất cứ điều gì bạn thích. Bạn muốn nghe Notorious BIG đọc một số nỗi kinh hoàng của HP Lovecraft's Fieldtrich ? Một lần nữa, YouTube là nơi. Trên thực tế, bạn sẽ nghe thấy một cái gì đó  giống như bản  rap của Notorious BIG.

Ngoài những bản mash-up điên rồ và những bộ phim bom tấn mùa hè, những kỹ thuật này đang tìm thấy các ứng dụng chức năng ở những nơi khác. Mô tả  là một trình chỉnh sửa âm thanh và video tạo bản ghi văn bản của bản ghi âm của bạn. Chỉnh sửa tài liệu văn bản và các thay đổi được thực hiện đối với bản ghi. Nếu bạn không thích cách bạn nói điều gì đó, chỉ cần chỉnh sửa văn bản. Mô tả sẽ tổng hợp bất kỳ âm thanh nào còn thiếu từ giọng nói của chính bạn. Nó có thể tổng hợp một giọng nói chỉ từ một phút ghi âm giọng nói gốc.

Kênh truyền hình Hàn Quốc MBN đã tạo ra một sự hiểu biết sâu sắc về Kim Joo-Ha, người dẫn tin tức của họ. Nếu một câu chuyện thường do Kim Joo-Ha xử lý bị phá vỡ khi cô ấy không ở trong trường quay, thì deepfake sẽ mang đến điều đó.

4. Tội phạm mạng đã bắt đầu

Tội phạm mạng luôn nhanh chóng nhảy vào bất kỳ bandwagon nào mà chúng có thể sử dụng để cải thiện hoặc hiện đại hóa các cuộc tấn công của chúng. Giả mạo âm thanh đang trở nên tốt đến mức nó đòi hỏi một máy phân tích phổ để xác định rõ ràng các video giả mạo và các hệ thống AI đã được phát triển để xác định các video giả mạo. Nếu việc thao tác với hình ảnh cho phép bạn vũ khí hóa chúng, hãy tưởng tượng bạn có thể làm gì với âm thanh và video giả đủ tốt để đánh lừa hầu hết mọi người.

Tội phạm liên quan đến hình ảnh và âm thanh giả đã xảy ra. Các chuyên gia dự đoán rằng làn sóng tội phạm mạng deepfake tiếp theo sẽ liên quan đến video. "Cuộc gọi điện video bình thường mới" làm việc tại nhà có thể đã mở ra kỷ nguyên mới của tội phạm mạng deepfake.

4.1. Tấn công lừa đảo

Một cuộc tấn công email lừa đảo cũ liên quan đến việc gửi email cho nạn nhân, tuyên bố rằng bạn có video về họ trong tư thế bị tổn hại hoặc xấu hổ. Trừ khi nhận được thanh toán bằng Bitcoin, cảnh quay sẽ được gửi cho bạn bè và đồng nghiệp của họ. Sợ có thể có một video như vậy, một số người trả tiền chuộc.

Biến thể deepfake của cuộc tấn công này liên quan đến việc đính kèm một số hình ảnh vào email. Chúng được cho là những bức ảnh tĩnh bị thổi phồng từ video. Khuôn mặt của nạn nhân - chiếm gần hết khung hình - đã được chèn kỹ thuật số vào hình ảnh. Đối với những người không quen biết, họ làm cho mối đe dọa tống tiền trở nên hấp dẫn hơn.

Khi hệ thống deepfake trở nên hiệu quả hơn, chúng có thể được đào tạo với các bộ dữ liệu ngày càng nhỏ hơn. Các tài khoản mạng xã hội thường có thể cung cấp đủ hình ảnh để sử dụng làm cơ sở dữ liệu học tập.

4.2. Các cuộc tấn công Vishing

Các cuộc tấn công lừa đảo qua email sử dụng nhiều kỹ thuật khác nhau để tạo ra cảm giác cấp bách để cố gắng khiến mọi người hành động một cách vội vàng hoặc chúng đánh theo mong muốn của nhân viên để được coi là hữu ích và hiệu quả. Các cuộc tấn công lừa đảo được thực hiện qua điện thoại được gọi là các cuộc tấn công trực quan. Họ sử dụng các kỹ thuật xây dựng xã hội giống nhau.

Một luật sư ở Mỹ đã nhận được một cuộc điện thoại từ con trai mình, người rõ ràng đang rất đau khổ. Anh ta nói rằng anh ta đã đâm một phụ nữ mang thai trong một vụ tai nạn ô tô và hiện đang bị tạm giữ. Anh ta nói với cha mình rằng mong đợi một cuộc gọi từ một người bảo vệ công khai để tổ chức 15.000 đô la bảo lãnh.

Cuộc gọi không phải từ con trai ông, đó là những kẻ lừa đảo sử dụng hệ thống chuyển văn bản thành giọng nói mà họ đã đào tạo bằng cách sử dụng các đoạn âm thanh của con trai ông để tạo ra một đoạn âm thanh sâu sắc. Luật sư không đặt câu hỏi trong giây lát. Theo như những gì anh ta có liên quan, anh ta đang nói chuyện với con trai riêng của mình. Trong lúc chờ người bảo vệ công vụ gọi điện, ông đã dành thời gian gọi điện cho con dâu và nơi làm việc của con trai mình để báo cho họ biết về vụ tai nạn. Lời nói đến người con trai vang lên để nói với anh ta rằng đó là một trò lừa đảo.

Một giám đốc điều hành ở Anh không may mắn như vậy. Anh ta đã nhận được một email lừa đảo có chủ đích từ giám đốc điều hành của công ty mẹ của công ty tại Đức. Điều này yêu cầu một khoản thanh toán 243.000 bảng Anh (khoảng 335.000 đô la) cho một nhà cung cấp Hungary trong vòng một giờ. Ngay sau đó là một cuộc điện thoại từ giám đốc điều hành, xác nhận việc thanh toán là khẩn cấp và cần được thực hiện ngay lập tức.

Nạn nhân cho biết anh ta không chỉ nhận ra giọng nói của ông chủ và giọng Đức nhẹ mà anh ta còn nhận ra nhịp điệu và cách phát âm cẩn thận. Vì vậy, anh vui vẻ thực hiện thanh toán.

5. Các biện pháp đối phó

Mối đe dọa tiềm tàng của deepfakes đã được chính phủ Hoa Kỳ công nhận. Đạo  luật cấm giả mạo sâu độc hại năm 2018  và  Đạo luật xác định đầu ra của Đạo luật mạng đối thủ  tạo ra hoặc Đạo luật IOGAN được tạo ra để phản ứng trực tiếp với các mối đe dọa do deepfakes gây ra.

Các công ty cần bổ sung các cuộc thảo luận về các trò chơi sâu vào khóa đào tạo nâng cao nhận thức về an ninh mạng của họ. Đào tạo nâng cao nhận thức về mạng nên là một phần trong quá trình khởi động mới và phải được lặp lại định kỳ cho tất cả nhân viên.

Cho đến nay, các cuộc tấn công được xem là phiên bản đánh bóng của các cuộc tấn công lừa đảo trực tuyến và lừa đảo trực tuyến. Thủ tục đơn giản có thể giúp bẫy nhiều người trong số này.

  • Không có chuyển khoản tài chính nào được thực hiện chỉ khi nhận được email.
  • Một cuộc điện thoại tiếp theo nên được thực hiện từ người nhận email đến người gửi, không phải từ người gửi đến người nhận.
  • Các cụm từ thách thức có thể được kết hợp mà kẻ tấn công bên ngoài sẽ không biết.
  • Tham khảo chéo và kiểm tra kỹ mọi thứ khác thường.