Facebook测试AI模型以抑制群组冲突

一个更积极的团体体验

Facebook表示,它正在测试一种人工智能群体中调节技术抑制帖子和评论中的冲突。

新的AI动力工具被称为冲突警报,并意味着帮助小组管理员更多地控制其社区。AI Tech将通知管理员,如果它是“有争议的或不健康的对话”所以管理员可以更快地采取所需的动作。

Facebook标志和用户

Chesnot / Getty Images

对于平均Facebook用户来说,这个新工具意味着您将很有可能在您所关注的组中看到较少的争吵和参数,因此整体而言,事情将不那么负面。

管理员可以使用冲突警报工具在用户使用特定单词或短语发表评论时创建警报,并且机器学习可以发现这些实例在发生时提醒管理员。该工具还允许管理员限制特定人员和帖子的活动。

Facebook告诉边缘机器学习将使用“多个信号,例如回复时间和评论卷,以确定用户之间的参与是否有或可能导致负相互作用。”

Facebook已经使用AI工具标记其平台上的其他类型的内容,包括仇恨语音。根据2020年8月社区标准执法报告Facebook的仇恨言论的工具准确为95%,而2020年第一季度的速度为95%。Facebook表示,它在第一季度2020年的960万个实例中增加了对仇恨言论的行动,第二季度在第二季度2250万。

对于平均Facebook用户,这个新工具意味着您最有可能在您遵循的帖子中看到较少的争吵和参数

这家社交网络公司还在开发一个能“看到”照片的人工智能技术通过使用原始数据来使模型训练本身独立,而不使用算法 - 因为它看得更多的图像。AI项目(称为Seer)可以为更通用,准确,适应性的计算机视觉模型铺平道路,同时为社交媒体用户带来更好的搜索和辅助功能工具。

这个页面有用吗?