Công nghệ AI cuối cùng đã làm cho trò chơi trực tuyến ít độc hại hơn như thế nào

Tác giả Starlink, T.M.Một 16, 2024, 11:21:30 SÁNG

« Chủ đề trước - Chủ đề tiếp »

0 Thành viên và 1 Khách đang xem chủ đề.

Bạn có nhận thấy tính năng trò chuyện trong trò chơi hiện nay tốt hơn không?

  • Các cộng đồng chơi game trực tuyến thường không khiến người chơi cảm thấy an toàn và được hòa nhập do các phòng trò chuyện bằng văn bản và giọng nói độc hại.
  • Hệ thống kiểm duyệt trò chuyện bằng AI sẽ đánh dấu những hành vi có khả năng gây hại để nhóm kiểm duyệt viên có thể xem xét và xử lý.
  • Kiểm duyệt trò chuyện bằng giọng nói AI đã được sử dụng trong các trò chơi nhiều người chơi phổ biến như Call of Duty, Among Us và GTA Online


Dành thời gian trong sảnh chơi game hoặc trò chuyện có thể khiến bạn cảm thấy tồi tệ. Một số cộng đồng đã trở nên độc hại, khiến người chơi rời xa trò chơi trước khi họ tham gia. Một số nhà phát hành cho rằng AI có thể là giải pháp giúp trò chơi của họ dễ tiếp cận với tất cả người chơi.

1. Chơi game có vấn đề độc hại

Tôi thuộc nhóm chơi game theo trường phái cũ, vì vậy hầu hết những năm tháng hình thành tính cách của tôi đều dành để chơi các trò chơi một người chơi hoặc cạnh tranh trên ghế dài trên máy chơi game. Nói xấu là thứ tự trong ngày, nhưng bạn biết giới hạn của mình khi bạn ngồi trên ghế dài bên cạnh bạn bè, và không ai bao giờ coi những lời nói xấu là nhắm vào mình. Internet đã thay đổi tất cả những điều đó.

Mặc dù bạn có thể chơi các trò chơi nhiều người chơi cục bộ với Steam, nhưng bạn thường sẽ chơi trực tuyến trong sảnh. Nếu bạn chơi các game bắn súng nhiều người chơi trực tuyến như Valorant hoặc Call of Duty, bạn sẽ nhanh chóng nhận ra mức độ của vấn đề độc hại mà nhiều game bắn súng trực tuyến đang phải vật lộn. Dữ liệu từ năm 2022 cho thấy Call of Duty có thể là game độc hại nhất trong số tất cả các cộng đồng người hâm mộ, khiến trò chơi trông tệ trong mắt những người hâm mộ mới. Trò chơi này cũng có lịch sử khét tiếng về hành vi gây hại, bao gồm cả xu hướng "swatting" khét tiếng từ vài năm trước.

Activision, nhà phát hành Call of Duty, không hài lòng với điều này và quyết định đã đến lúc phải thay đổi.

Người chơi từ lâu đã tìm kiếm các trò chơi không độc hại. Tuy nhiên, hầu hết các công ty trò chơi không biết cách giải quyết vấn đề độc hại trong cộng đồng người chơi của họ. Call of Duty gần đây đã triển khai một hệ thống sử dụng AI để phát hiện hành vi độc hại trong sảnh và xử lý những người chơi thúc đẩy hành vi tiêu cực trong cộng đồng người chơi của họ. Kết quả đạt được hiệu quả đáng ngạc nhiên.

2. AI xử lý người chơi độc hại như thế nào?

Vậy là bạn đang ở trong một sảnh chơi game, và một gã nào đó chửi bới bạn thậm tệ. Cuối cùng, nó chuyển sang ngôn ngữ kinh tởm, rồi đến lời lẽ xúc phạm. Bạn báo cáo gã đó, nhưng bạn thậm chí không biết liệu có biện pháp nào được thực hiện không.

Đây là thực tế của rất nhiều không gian chơi game trực tuyến hiện nay. Theo Activision, tính đến tháng 1 năm 2024, hơn bốn triệu tài khoản đã bị xử lý vì hành vi độc hại, nhưng hành vi này vẫn tiếp diễn.

Cách tiếp cận cũ của Activision không còn hiệu quả nên họ quyết định thay đổi.

Trước đây, công ty đã hợp tác với Community Sift để kiểm duyệt dựa trên văn bản, có vẻ như hoạt động tốt. Tuy nhiên, trong các sảnh dựa trên bảng điều khiển, hầu hết giao tiếp được thực hiện qua giọng nói và cần phải kiểm duyệt dựa trên giọng nói. Đây chính là lúc trình kiểm duyệt trò chuyện bằng giọng nói dựa trên AI của công ty phát huy tác dụng.

Người điều hành, được gọi là ToxMod, đến từ công ty   Đăng nhập để xem liên kết và có rất nhiều quyền lực trong hệ sinh thái Call of Duty. ToxMod sử dụng sắc thái giọng nói, kiểu nói, trọng âm và các yếu tố khác để xác định xem người dùng có nói điều gì đó độc hại với các thành viên khác trong sảnh hay không. Người điều hành có thể đưa ra cảnh báo và gắn cờ tài khoản người chơi để thực thi và cấm bởi con người.

3. Trò chơi nào hiện đang sử dụng AI Chat Moderator?

Các tựa game như Among Us và Grand Theft Auto Online đều đã triển khai trình điều hành trò chuyện AI. Người chơi GTA Online lần đầu tiên trải nghiệm bản thử nghiệm beta cho ToxMod vào tháng 12 năm 2023, nhưng nhiều người dùng lo ngại về quyền riêng tư của họ. Rockstar, nhà phát hành trò chơi, đã nói với người chơi rằng họ chỉ đang thử nghiệm hệ thống và sẽ cân nhắc triển khai thực thi vào năm 2024. Tuy nhiên, cho đến nay vẫn chưa có nhiều cập nhật về việc điều hành AI.

Among Us cũng đã triển khai hệ thống này trong bản phát hành VR vào tháng 4 năm 2024. Những trò chơi phổ biến này đã khiến ToxMod trở nên rất phổ biến trong việc xử lý lời nói đáng ngờ và giữ cho sảnh chơi game dễ chịu với bất kỳ ai. Đây là một bước tiến trong việc giúp trò chơi trực tuyến nhiều người chơi thoát khỏi quá khứ độc hại và trở nên dễ tiếp cận hơn với nhiều người hơn.

4. Những gì được đánh dấu và những gì được chấp nhận

Theo ToxMod, người điều hành giọng nói AI sử dụng các tín hiệu cảm xúc để xác định xem có điều gì xúc phạm được nói ra hay không. Tuy nhiên, nó cũng sử dụng phản hồi trò chuyện để xác định chính xác các tuyên bố xúc phạm.

Hệ thống được thiết kế để con người có tiếng nói cuối cùng vì ToxMod gửi nhật ký chi tiết về cuộc trò chuyện âm thanh cho người kiểm duyệt, người sau đó có thể ban hành lệnh cấm nếu họ thấy cuộc trò chuyện vi phạm quy tắc ứng xử. Đây là công cụ đánh dấu, được thiết kế để giúp xác định vấn đề, thay vì hệ thống kiểm duyệt hoàn toàn tự động.

Vậy tại sao ToxMod lại là vấn đề lớn như vậy nếu đã có cách để người dùng gửi báo cáo về người chơi độc hại? Vấn đề của Activision là việc vào màn hình báo cáo sẽ khiến người chơi thoát khỏi trò chơi. Khi điều đó xảy ra, họ ít có khả năng muốn tiếp tục chơi. Tính năng tự động của ToxMod giúp người chơi đắm chìm bằng cách tạo báo cáo thay họ.

Nhiều người trong chúng ta quen với việc tắt tiếng những người chơi có vấn đề và tiếp tục chơi, trong khi ToxMod đảm bảo rằng sẽ có báo cáo được lập để có thể xử lý kẻ chủ mưu.

5. ToxMod đã giúp ích gì cho Call of Duty?

Mặc dù dễ dàng suy đoán rằng một người điều hành giọng nói AI có thể khiến các trò chơi như Call of Duty bớt độc hại hơn, nhưng việc có sự thật rõ ràng sẽ tốt hơn nhiều. Trong trường hợp này, Activision ước tính rằng có tới 50% ít trò chuyện bằng giọng nói độc hại hơn ở Bắc Mỹ đối với các tựa game C all of Duty: Modern Warfare III và Call of Duty: Warzone. Nguồn tin tương tự cho thấy tỷ lệ người vi phạm nhiều lần giảm 8% và tỷ lệ độc hại trên nền tảng này giảm 25%.

Từ các con số, rõ ràng là ToxMod đã tác động tích cực đến hệ sinh thái trò chuyện. Tuy nhiên, điều này nên được xem xét một cách thận trọng. Kiểm duyệt giọng nói AI có xu hướng gặp vấn đề với một số giọng vùng miền, vì vậy, việc có một người thực hiện lệnh cấm là rất quan trọng để tránh mọi vấn đề.

Mặc dù vậy, một số game thủ không hài lòng khi họ bị xử phạt vì trò chuyện bằng giọng nói. Mặc dù kiểm duyệt giọng nói AI tuyệt vời, vẫn có thể mắc lỗi. Chúng tôi nghĩ rằng đây là một năm tuyệt vời để kiểm tra Call of Duty mới, đặc biệt là với mức độ độc hại giảm.

6. Xây dựng một tương lai chơi game mà chúng tôi muốn

Trí tuệ nhân tạo có nhiều công dụng, từ việc tạo hình ảnh mạnh mẽ trên PC của bạn đến việc sử dụng nó như một huấn luyện viên thể hình cá nhân. Thật tự nhiên khi ai đó tìm cách điều chỉnh các cuộc trò chuyện bằng giọng nói mang tính xúc phạm trong trò chơi nhiều người chơi để tạo ra bầu không khí chào đón hơn.

Tôi muốn thấy một cộng đồng chơi game nhiều người chơi, nơi mọi người ủng hộ và không lạm dụng những người chơi khác vì định kiến. Có thời điểm và địa điểm cho việc nói xấu, nhưng có một ranh giới mà nó chuyển sang thành ác ý và lạm dụng.

Nếu người điều hành trò chuyện bằng giọng nói AI là cách đưa chúng ta đến nơi mà trò chơi trở nên thú vị trở lại, tôi hoàn toàn ủng hộ việc triển khai nó.