【逐日科技网】
据外媒克日报道,谷歌公然示意,将继续使用机械学习开发高级程序,以袭击极端主义内容。经由一段时间的实测解释,AI比人类可以更快更精准的清算YouTube上的非法内容。
7月上旬,谷歌正式公布人机协作设计——“PAIR”(People AI Research)。据雷锋网(民众号:雷锋网)领会,该项目由Google Brain的研究员Fernanda Viégas和Martin Wattenberg向导,二位都是开发庞大信息可视化手艺的专家。其目的在于保证AI手艺对每个人都有益处,并专注为AI开发者提供新工具。
而落实到YouTube上,则为这样的分工模式。即让机械学习和人类审查职员分工互助,作为跨部门途径的一部分,以解决YouTube上的极端主义和争议性视频的内容流传。在此其中,还包罗为视频设立更严酷的审核尺度,以及约请更多人力对需要审核的内容举行符号。
在该设计公布一个月后,英国内政部部长Amber Rudd向美国科技公司一再呼吁,为袭击极端主义内容的兴起,人人还需做更多事情。Google旗下YouTube向外示意,该问题行使机械学习系统已经获得很大的改善。
YouTube发言人示意,虽然这些工具并不完善,也并不匹配所有设置,然则使用历程证实,该系统比人类更能准确的标出需要删除的视频。
“最初我们使用机械学习来清扫暴力极端主义内容,数据解释是人类清扫数目的两倍。而在削减此类内容的速率上,机械同样是我们的两倍。已往一个月内,有跨越75%的暴力视频内容被清算。”
该公司示意,YouTube现在在羁系非法内容遇到的一个问题在于,用户上传的内容正以每分钟400小时的速率举行,这项恐怖的数据将对实时过滤极端主义内容发生伟大的挑战。
YouTube还示意,现在,他们已经和15个NGO和机构互助,包罗反中伤同盟、无愤恨言论运动(the No Hate Speech Movement)和战略对话研究所,以提高系统对这些议题、愤恨言论、激进和恐怖主义内容的明白,以便更好的处置这些内容。
接下来几周内,Google将对视频内容执行更严酷的尺度,这些视频可能是令人反感但又不违法的。该公司示意,YouTube上虽然有些视频内容被符号为不适当,如含有争议性的宗教主义内容等,但其并不违反公司对愤恨言论或暴力极端主义的政策的,将被置于“被限制的区间”。
若何处置这些内容?一位YouTube发言人对此示意,“这些视频依然会留在YouTube的插页式广告中,不会被推荐,也不会有盈利,更不会有谈论、推荐、喜欢等要害功效。”
作为预防激进主义的一部分,YouTube也最先对某些视频页面的特定要害词举行重新定向搜索,这些页面直达暴力极端主义内容。
此外,Google方也示意将继续开发机械学习手艺,并以其他手艺公司互助处置网络上的极端主义言论。