Twitter在其平台上应对猖ramp骚扰的最新努力中会考虑在发推文之前为用户提供第二次机会。在公司正在测试的一项新功能中,使用“有害”语言的用户将看到提示,提示他们在发布回复之前进行自编辑。
这里的框架有点不屑一顾-Twitter上的骚扰肯定不会只是由善意的个人在“当下的热”中发生的-但任何可以减少平台毒性的事情都可能比我们得到的更好现在。
去年在F8上,Instagram 对其用户进行了类似的测试,可以在用户发布可能令人反感的评论之前“警告”他们。在12月,该公司提供了有关其工作的最新信息。该公司在博客中写道:“结果令人鼓舞,我们发现这些微调可以鼓励人们在有机会的情况下重新考虑自己的话。”
这种事情现在特别重要,因为公司会在其庞大的平台上与相关的基本工作人员进行协调。由于流行病使科技工作者远离办公室,所有主要的社交网络都宣布越来越依赖AI检测。在Facebook的情况下,内容主持人是他们希望首先带回的员工。
我们已与Twitter联系,以获取有关触发新测试功能的语言类型的更多信息,以及公司是否还会考虑提示不回复的常规推文的提示。如果我们收到有关此实验效果的其他信息,我们将更新故事。
暂无任何评论,欢迎您点评!