短视频平台TikTok于上周五在其官网发布公告称,它将使用更多自动化功能从其平台上删除违反其社区准则的视频。
目前,任何上传到平台的视频将通过技术工具来识别和标记潜在的违规行为,然后由安全团队成员进行审查。 TikTok 表示,如果发现违规行为,则会删除视频并通知用户。
在接下来的几周内,TikTok将开始自动删除某些类型的内容,包括违反未成年人安全、成人裸体和性行为、暴力和图片内容以及非法活动和受管制商品政策的内容。该公司表示,这将有助于安全团队更专注于高度关联和细致的内容领域,如欺凌、骚扰、虚假信息和仇恨言论等。
TikTok 也补充说,首次违规时将在应用程序中发出警告,若反复违规的话,则将通知用户,账户也可能永久被删除。
Source :