【逐日科技网】
新浪科技讯 北京时间5月16日早间新闻,Facebook示意,人工智能正在协助清算旧帖子中的不良内容。
Facebook称,今年第一季度,一共对190万个与基地组织、伊斯兰国(ISIS)等恐怖主义有关的帖子接纳了强制措施。加强监视通常意味着用户帖子被删除、帐户被暂停,或用户被克制上岸Facebook。此举可以改善机械学习,使该公司找到更多与恐怖主义相关的图片,无论它们是新上传的,或是已在Facebook平台上存在了比较长的时间。
讲述称,在上一季度,97%与恐怖主义相关的帖子是由Facebook自己找到的,而不是来自用户的举报。Facebook将该数据作为第一份《社区尺度执行讲述》的一部分,该讲述形貌了Facebook公司在去年10月至今年3月间接纳的内容监视行动。
讲述中的其它内容包罗:
- 图片暴力:包罗图片暴力的帖子占到总浏览量的0.22%-0.27%,从上个季度的0.16增进到0.19%。该公司对340万个帖子接纳了行动,高于上个季度的120万个帖子。暴力帖子的增添似乎与叙利亚冲突加剧成正比。
- 裸体和性:有关裸露或性的帖子占到总浏览量的0.07%-0.09%,从上个季度的0.06%提高到0.08%。该公司对2100万个帖子接纳了行动,与前一季度基本持平。
- 愤恨言论:Facebook对250万个违反愤恨言论规则的帖子接纳了行动,比上个季度增进56%,其中62%的帖子是被用户举报的。
- 垃圾邮件:Facebook对8.37亿个垃圾邮件帖子接纳了行动,比上个季度增进了15%。该公司示意,垃圾邮件全部是由公司内部自行发现的。
- 虚伪帐号:在Facebook网的每月用户中,3%-4%是虚伪帐号,该公司示意,在今年第一季度删除了5.83亿个虚伪帐号,低于上个季度的6.96亿个。
Facebook公司在讲述中指出,设计每年至少宣布两次相关数据,“自动负担自己的责任。”讲述中说,“这个指南注释了我们的方式,让民众能够明白我们共享数据的益处和局限性,以及我们若何通过改善方式使数字发生变化。我们致力于做得更好,并更公开地让民众领会我们的起劲,向前迈进。”
Facebook产物治理副总裁盖伊·罗森(Guy Rosen)在接受记者采访时示意,该公司仍在起劲开发尺度,以辨识社交平台上经常出现的愤恨言论。现在,该公司的机械学习系统在识别愤恨语音方面仍存在难题,由于计算机难以明白上下文。
尽管如此,人们照样在Facebook平台上宣布了数不清的愤恨言论帖子。今年3月,联合国称Facebook要为在缅甸流传罗兴亚少数民族愤恨言论一事卖力。Facebook公司辩称,由于缺少能说当地语言的审核者,难以阻止愤恨言论的流传。“我们必须做更多的事情,以确保对这些情形引起关注,”罗森说,他同时指出,该公司最近聘请了更多当地审核者。
在这份执行讲述宣布前一个月,Facebook网对外宣布了社区尺度,划定了不允许在Facebook上宣布的内容局限,该网站在全球的内容治理员也以此作为事情准则。
Facebook执行讲述宣布之时,该公司正在面临越来越大的压力,外界纷纷呼吁该社交平台削减愤恨言论、暴力和错误信息。受制于美国国会的压力,Facebook公司示意,今年将平安保障团队增至20000人。