近日,Facebook(脸书)最新发布一款“冲突预警”(Conflict Alerts)工具,利用AI技术,识别评论中发生的“有争议或不健康的对话”。一旦群组管理员收到警告,就可以删除评论、将该用户踢出群、限制个人评论的频率或对某些帖子发表评论的频率。Facebook表示,目前该功能处于测试阶段,是否正式上线仍然未决。

打开网易新闻 查看更多图片

管理员收到警报后,可以选择采取处理措施。

据了解,“冲突预警”类似于已有的关键词提醒功能,即群组管理员可以将自定义的特定词组创建为提醒,当有评论使用了这些词组时,管理员就可以收到提醒。不过,运用机器学习模型,“冲突预警”可以监测到更多的用词情况。Facebook一位发言人曾表示,该公司将使用机器学习模型来观察“回复时间和评论量等多种信号,以确定用户之间的互动是否已经或可能会导致负面互动。”

有媒体推测,“冲突预警”使用的人工智能系统与Facebook已经部署的标记网站上辱骂言论的系统类似。这些模型可以发现明显的线索如“idiot(傻瓜)”,但也常常被幽默、讽刺和俚语等词句所愚弄。

Facebook目前拥有近28.5亿月活用户,其中超过18亿人参与了群组,群组管理员达到7000多万人。该公司表示,“冲突预警”可以帮助管理员在群组中保持文明。

编译/综合:南都记者马嘉璐