最后更新:2020-06-12 10:08:27 手机定位技术交流文章
作者|谭晶
主题地图|愿景中国
来源|亲爱的数据(标识:亲爱的数据)
互联网上每天产生多少脏话?这是一个谜。然而,从脸书2020年第一季度的透明度报告中,我们可以看到一些特征。
自2018年5月以来,脸书发布了季度报告,解释其努力工作的结果。
2020年第一季度,该公司成功删除了960万条“脏话”。这是一个创纪录的数字,高于2019年第四季度的570万,也高于2019年第三季度的700万。
在2020年第一季度的全球公共卫生事件中,人们有很多不良情绪。
“咒骂”是一个简称。直截了当的理解是极端和可恨的词语。民间脏话、方言脏话、一些人体器官的描述、人身攻击、种族歧视和性别歧视都包括在内。如果你有什么想法,你还是希望韩海。
每天,当我打开手机应用程序时,我都会看到键盘人“喷香”,这让我很不舒服。然而,人工删除网络上的脏话是不可能的,而且会被误判。
Facebook的方法是使用人工智能技术进行狙击。
任何审查,都会有遗漏。脸书透明度报告的一个缺陷是它没有提到泄露的程度。
透明和公开是与公众沟通的绝佳方式。傻瓜必须闭嘴。尽管脸书没有得到满分,但它也提供了“榜样”
让我们看看真、善、美的存在,也看看假、恶、丑是如何被杀死的。
在第一季度被脸书删除的960万条帖子中,软件系统检测到88.8%(在用户看到信息并报告之前)。这表明该算法用机器标记了850万条“脏话”帖子,比上一季度的460万条增加了86%。
2020年第一季度,除了病毒的传播,“脏话”也在蔓延。
迈克·施罗德自2013年3月以来一直担任脸书的首席技术官。他借《透明度报告》发表的机会,重点宣传了一轮人工智能技术广告,宣传公司在自然语言处理技术方面的进步。
他说:“我们的语言模型变得更大、更准确、更微妙。能够发现微妙的东西。”
不幸的是,Schroepfer没有解释这些系统评论的准确性,只是说Facebook在部署它们之前对系统进行了广泛的测试(测试机器的误判)。
毕竟,一台错误识别正常表情的机器也会惹恼用户。记忆中的诗人顾城的笑话。
——4——麦克·施罗德引用了新报告中的数据,该数据显示,尽管在最近的25万至130万篇文章中,用户对删除内容的决定抱怨得更频繁(这可能是因为他们习惯了咒骂、突然删除和不服气),但后来决定恢复的帖子数量已经减少(习惯了)。
Facebook的数据没有显示其算法网络中缺少多少仇恨言论。该公司的季度报告估计了Facebook规则禁止的某些类型内容的发生率,但没有“粗话”内容。新闻官员宣布,自2019年夏季以来,暴力帖子的数量有所下降。Facebook“仍在研究一个全球指标”
缺失的数据掩盖了社交网络上脏话的真实规模。
西雅图大学的凯特琳·卡尔森副教授说:“与脸书庞大的用户网络和用户对令人不安内容的观察相比,被删除的帖子数量(960万)似乎太少了。"
教授认为960万个“脏话”不够真实?
——5——巧合的是,2020年1月,卡教授公布了一项实验结果。她和一位同事收集了300多条脸书帖子(样本),这些帖子明显违反了规则,并被实验室工作人员使用服务工具举报。追踪结果显示,只有大约一半的帖子被删除。
卡教授的实验结果正在挑战脸谱网。与此同时,她还发现该算法对种族歧视比对女性歧视更严格。我不知道桑德拉,一个脸书的主管,读了之后是什么感觉。
Facebook表示,通过该算法发现(标记)的内容与用户报告被同等对待。在该过程中确定是直接删除还是处理警告。流程可能会转移到下一步,即手动审核。(或仍由软件决定,视情况而定。)
此时,是时候谈谈员工的疾苦,进行人工审核了。
2020年5月,Facebook同意支付5200万美元与内容审查团队达成和解。原因非常令人惊讶。审查岗位使他们遭受精神创伤,这已被法院确认。外国媒体《边缘报》之前详细报道了这一消息。
来源:“脸书承认内容审计会给员工造成巨大损失。这一次,这是一个里程碑式的认可。Facebook同意向现任和前任审计员支付5200万美元,以补偿他们在工作中的精神健康问题。
——7——在圣马特奥美国高等法院提出的初步解决方案中,脸谱网同意支付赔偿金,并在工作期间给予更多帮助。"
每天看这些脏话的人都有内伤。当然,这是工伤。
——8——在剑桥门事件之后,审计报告是脸谱网透明度计划的一部分,其中还包括雇佣一个新的外部专家小组(有专家在研究脏话吗?),集团有权推翻公司的审计决定。
合理,只有董事会是公司的最高权力机构。
该公司已做出巨大努力来协调外部力量的参与。毕竟,罚款有点高,所以扎克伯格将比亚马逊的贝佐斯穷得多。
(当然,脸谱网对剑桥门事件罚款50亿美元。)
卡教授继续面对脸谱网(我很欣赏她的坚持)。她表示,Facebook的披露似乎表明该公司可以自我监管,但该报告存在缺陷。
“要和公司对话,我们需要数据,”她说。
当被问及为什么他们没有报道“脏话”的激增时,一位脸书发言人指出,该报告的指标“正在慢慢扩大,以涵盖更多的语言和地区,从而考虑到文化背景和个别语言的细微差别”。
定义和检测“脏话”是脸书和其他平台面临的最大社会和技术挑战之一。
在全球多元文化的背景下,甚至人类也需要努力区分内容。例如,有一个颤音教青岛方言来赞美有“赤子”的人。请在白会议上试一试。
自动化非常困难,因为人工智能离人类理解文本还有很长的路要走,而理解文本和图像所传达的微妙含义的算法研究才刚刚开始。
施罗德说:“在语言学研究的帮助下,脸书已经升级了它的检测算法。许多高科技公司正在改造他们的语言处理软件系统(如谷歌的搜索引擎),以提高他们使用算法解决语言问题的能力,如回答问题或澄清歧义。”
他强调:“这是一个重大改进。”
Schroepfer还明确表示,这些改进并没有使技术变得完美。
透明度报告显示,脸谱网在内容审查和审计方面大力捍卫人工智能。骂人会影响社交网络的基础,人工智能使用起来很昂贵。
——13——脸谱网表示,它已经创建了一个超过10,000个仇恨言论模因的集合(模因是许多人在互联网上互相发送的东西,如视频、图片或短语),它将图像和文本结合在一起,激发新的研究。
该公司将向研究团体提供10万美元的奖金,以鼓励他们开发开源软件,最好地发现可恶的迷因和良性内容的混合物。
——14——美国仍在对社交媒体内容中的“脏话”采取放任态度。
德国在2017年通过了《新媒体法》,该法要求拥有200万或更多用户的社交媒体公司删除或阻止对报告内容的访问,因为这违反了德国刑法中对仇恨言论的限制(zDG网,2017年)。
公司必须在收到通知后24小时内删除“明显的仇恨言论”,否则将面临5000万美元的罚款(奥尔特曼,2018)。
值得一提的是,在2019年新西兰两座清真寺遭到恐怖袭击后,全球领导人会见了其他公司高管,如脸书、谷歌和推特,共同制定了一套全球反恐准则,称为“克赖斯特彻奇呼吁”,并制定了反极端主义、暴力和仇恨言论。
更值得一提的是,美国没有签署承诺。
远离家乡的Tiktok也发布了仅有五页的透明报告(2019年12月)。
不要问为什么,强迫。
互联网公司拥有无与伦比的力量来塑造人类的话语世界。极端的言论比比皆是,但对它们的处理和删除却知之甚少。《透明度报告》也适用于新浪微博等国内互联网平台公司。敢问,现在是什么样的世界?先进的技术和生产力被用来对抗“脏话”。
程序员的痛苦:六次创业和五次失败
☞Linux之父愤怒地删除了工程师提交的补丁,称之为“太愚蠢”网友:做得好!
张一鸣是如何发展字节跳动的
性能超过最新的序列推荐模型,华为诺亚方舟提出内存增强的图形神经网络
在移动应用程序开发中,开发软件扮演什么角色?
稳定货币经济:十种稳定货币简史
本文由 在线网速测试 整理编辑,转载请注明出处。