作为世界上最大的社交媒体平台,Facebook一向表示,人工智能在内容审查,删除仇恨言论等方面发挥着至关重要的作用。但《华尔街日报》获取的公司内部文件发现,事实并非如此。
这篇10月17日发布的报道援引Facebook内部文件称,该公司使用的人工智能难以持续准确识别第一人称的射击视频、种族主义言论、甚至无法分辨斗鸡和车祸。
在仇恨言论方面,Facebook员工也在文件中指出,人工智能只能删掉极少一部分。公司一位研究人员在2019年的报告中指出,公司自动化删除的帖子只占违反规则的仇恨言论总数的2%,“除非战略发生重大变化,否则在短期内很难将这一比例提高到10-20%以上。”
今年3月,据另一个Facebook团队得出类似的结论,估计人工智能只能删除平台上3%到5%的仇恨言论,以及0.6%违反Facebook反暴力政策的内容。
文件还显示,两年前,Facebook缩短了人工处理用户仇恨言论投诉的时间,并进行了其他调整,从而减少了投诉的总数。负责审查业务的员工成本为每周200万美元,或每年耗资1.04亿美元。该公司由此更加依赖人工智能执行其规电脑则,并夸大技术在其公开统计数据中的成功。
Facebook副总裁盖伊·罗森周日发文反驳称,在过去三年中,该平台上仇恨言论的流行程度下降50%,而且“打击仇恨言论的技术不充分,故意歪曲技术进步”的说法有误。
按照罗森的解释,目前Facebook上每10000内容浏览量中有5个包含仇恨言论,比2020年中期每10000内容浏览量含10个的水平大幅下降。
该公司上个月还表示,其人工智能系统在“主动删除违反仇恨言论标准的电脑内容”方面效果越来越好,删除的内容比2017年增加15倍。
向《华尔街日报》泄露内部文件的“吹哨人”是原Facebook数据专家弗朗西斯·豪根。她在本月初出席美国国会听证,表示Facebook故意隐瞒了令人担忧的研究成果,例如青少年在使用其产品后自我感觉变差,Facebook乐意使用包含仇恨意味的内容吸引用户等。她希望议员对这家全球最大的社交网络公司采取行动。
而Facebook回应称,豪根的说法有误,同时国会的确应该采取行动为互联网制定标准,不要指望“互联网行业做出属于立法者的社会决定”。
相关阅读:“吹哨人”指控Facebook置利润于安全之上,扎克伯格这样回应
电脑