Vào tháng 2 năm nay, TikTok cho biết họ đang nghiên cứu những cách mới để giới hạn độ tuổi người xem đối với một số loại nội dung nhất định nhằm tăng cường các tính năng an toàn cho trẻ em, thanh thiếu niên. Đây được coi là nỗ lực của mạng xã hội khổng lồ này nhằm tăng cường các tính năng an toàn cho trẻ nhỏ.
Tính năng này sẽ áp dụng cho những video không vi phạm các quy tắc của TikTok nhưng có thể không phù hợp với người dùng nhỏ tuổi.
Với tính năng mới, người dùng trong độ tuổi từ 13 - 17, mỗi khi gặp một video có "chủ đề người lớn hoặc chủ đề phức tạp", họ sẽ nhận được thông báo "video bị giới hạn độ tuổi".
Với sự thay đổi này, người dùng trong độ tuổi từ 13 - 17, mỗi khi gặp một video có "chủ đề người lớn hoặc chủ đề phức tạp", họ sẽ nhận được thông báo "video bị giới hạn độ tuổi".
"Khi chúng tôi phát hiện ra một video chứa các chủ đề người lớn hoặc phức tạp, chẳng hạn như các cảnh hư cấu có thể quá kinh hãi hoặc dữ dội đối với khán giả nhỏ tuổi, video sẽ được ấn định một điểm số trưởng thành để người dùng dưới 18 tuổi của TikTok không nhìn thấy chúng", TikTok giải thích trong một bài đăng trên blog.
TikTok không chia sẻ cách xác định những điểm số trưởng thành này hoặc tiêu chí mà họ sẽ sử dụng để phân loại video. Tuy nhiên, TikTok cũng lưu ý rằng tính năng này mới là "phiên bản đầu tiên" và họ có kế hoạch bổ sung hoàn thiện trong tương lai.
Tính năng mới này của TikTok dự kiến sẽ được ra mắt trong vài tuần tới. Trong thời gian chờ đợi, ứng dụng cũng đang bổ sung một tính năng mới để lọc ra các chủ đề không mong muốn khỏi trang "Dành cho bạn".
Bản cập nhật sẽ cho phép người dùng tắt tiếng một số từ hoặc thẻ bắt đầu bằng # mà họ không muốn xem video nữa.
Tính năng này không nhất thiết được sử dụng để lọc nội dung có thể có vấn đề - nó cũng có thể được sử dụng để ngăn chặn thuật toán hiển thị các chủ đề mà người dùng không quan tâm hoặc đã phát ngán khi xem.
Liên quan đến các tính năng này, công ty cho biết họ đang mở rộng thử nghiệm hiện có của một hệ thống hoạt động để đa dạng hóa các đề xuất nhằm ngăn người dùng tiếp xúc nhiều lần với nội dung có khả năng có vấn đề - như video về chế độ ăn kiêng hoặc tập thể dục khắc nghiệt, nỗi buồn hoặc chia tay.
Thử nghiệm này đã được triển khai tại Mỹ vào năm ngoái sau cuộc điều tra của nước này đối với các ứng dụng mạng xã hội như TikTok và những ứng dụng khác về cách hệ thống khuyến nghị thuật toán của họ có thể quảng bá nội dung liên quan đến các nguy cơ về rối loạn ăn uống có hại cho người dùng trẻ tuổi.
Về cơ bản, các tính năng mới này được thiết kế để cung cấp cho người dùng nhiều quyền kiểm soát hơn đối với trải nghiệm TikTok của họ, đồng thời làm cho ứng dụng an toàn hơn, đặc biệt là đối với người dùng nhỏ tuổi./.