如何清理恐怖主义内容?Facebook用人工智能识别

发表于:2017-6-19 09:05  作者:星海   来源:新浪科技

字体: | 上一篇 | 下一篇 | 打印 |我要投稿 | 推荐标签: 人工智能 Facebook

  
  极端内容在Facebook泛滥为公司招来许多批评。周四时,Facebook介绍了自己工作,让我们深入幕后,看看它是怎样解决此问题的。
  Facebook全球政策管理主管莫妮卡·比科特(Monika Bickert)、反恐政策经理布莱恩·菲什曼(Brian Fishman)在博文中表示:“我们的立场非常简单:在Facebook没有恐怖分子的容身之地。我们删除恐怖主义内容以及支持恐怖主义的内容,一旦发现就会删除。当我们收到报告,说某些帖子可以涉及恐怖主义,我们马上会对帖子进行评估审查。”
  直到最近,Facebook才在反恐方面使用AI技术。其中使用的一种技术就是图像匹配。也就是说如果用户发布一张图片,上面出现了已知的恐怖分子,Facebook软件就会自动匹配,比如将图片与ISIS的宣传视频匹配,或者与Facebook上出现的其它极端图片和视频匹配,这些图片视频已经被删除。
  不只如此,Facebook还在做实验,对网站上恐怖分子可能使用的语言进行解析。Facebook还准备扩大技术的应用范围,用在其它App中,包括WhatsApp和Instagram。
  比科特和菲什曼说:“我们相信技术、Facebook可以成为解决方案的一部分。”
  随着规模和影响力的扩大,Facebook有一些问题需要解决,现在Facebook每月有用户20亿。在过去几个月里,Facebook受到了假新闻的困扰。一些人还用Facebook Live直播谋杀、暴力内容。
  问题在于:用户可以用Facebook发布各种内容(几乎是任何内容),网站必须对内容进行监管。
  在反恐问题上,Facebook认为技术并不是完美的“答案”,它还依赖人力来控制。Facebook反恐团队已经有150名成员,有些人之前是检查官,或者来自执法机构,或者是工程师。
  不只如此,Facebook还与其它一些机构和组织合作。Facebook说公司定期与执法机关和政府合作。去年12月,Facebook与其它科技企业合作,包括Twitter、微软谷歌旗下YouTube,创建一个行业数据库记录恐怖分子的数字指纹。
  博文称:“我们希望Facebook成为恐怖分子的‘敌对环境’。在线社区面临的挑战与真实世界的社区是一样的:及早发现,以免造成不可挽回的后果。”

评 论

论坛新帖

顶部 底部


建议使用IE 6.0以上浏览器,800×600以上分辨率,法律顾问:上海瀛东律师事务所 张楠律师
版权所有 上海博为峰软件技术股份有限公司 Copyright©51testing.com 2003-2017, 沪ICP备05003035号
投诉及意见反馈:webmaster@51testing.com; 业务联系:service@51testing.com 021-64471599-8017

沪公网安备 31010102002173号

51Testing官方微信

51Testing官方微博

扫一扫 测试知识全知道