​深度学习先驱Yann LeCun被骂退推特:你们都很懂,从此我不说话了

      最后更新:2020-06-30 10:40:42 手机定位技术交流文章

      经过两个星期的“责骂战”,图灵奖获得者、脸谱网首席人工智能科学家扬·勒昆宣布他将退出推特。

      “我要求社交网络上的每个人都停止攻击对方,尤其是对蒂姆尼特·格布鲁的攻击和对我之前一些言论的攻击。Yann LeCun刚刚在推特上发出了这样的呼吁。”冲突,不管是口头的还是其他的,只会得到伤害和相反的结果。我反对一切形式的歧视。这是一篇关于我的核心价值观的文章。ゥ

      “这是我在推特上发表的最后一篇文章。各位,再见。ゥ

      2018年图灵奖得主、人工智能领袖扬·勒昆似乎已经下定决心结束持续两周的激烈讨论。这场激烈的责骂战的原因正是被指责为“严重种族歧视”的脉冲算法。

      这项工作是由杜克大学发起的,它的人工智能算法可以在几秒钟内使模糊的照片变得清晰,效果非常好。该研究论文已在CVPR 2020上发表(论文“脉冲:通过生成模型的后期空间探索的自监督照片上采样”)。

      PULSE在CVPR会议期间引起了人们的注意,这在人工智能界引起了广泛的争议。首先,该方法生成的图像清晰度更高,细节更丰富:PULSE可以在几秒钟内将16×16像素图像的分辨率提高到1024×1024,最高可达64倍。目前,该算法只针对人脸照片,由该算法生成的照片足够清晰,可以显示人脸上的毛孔、皱纹甚至一缕头发。

      但本质上,PULSE并没有消除马赛克,而是“生成”看起来真实但不存在的面孔。超分辨率算法一直是计算机科学的一个研究热点。过去,科学家提出的恢复方法是在低分辨率图像上增加像素。然而,PULSE利用GAN的思想,首先利用深度学习算法生成一些高清图像,然后降低其分辨率,并与模糊的原始图像进行比较,找出匹配度最高、最接近原始图像的高清图像,然后输出。

      问题就在这里。在一些网民尝试PULSE后,他们发现美国前总统巴拉克·奥巴马的高粘贴照片被解码并生成了一张“白脸”:

      一些网民质疑这种方法产生的结果的偏差,该项目的作者也给予了回应,称这种偏差可能来自StyleGAN的训练数据集,也可能有其他未知因素。

      “我们意识到偏见是机器学习和计算机视觉领域的一个重要问题,并就此问题联系了StyleGAN和FFHQ数据集的创建者。我们希望这将促进没有这种偏见行为的方法的诞生。ゥ

      然而,这件事还没有结束。鉴于目前美国BLM的舆论环境,人们很快开始深入讨论缺乏多样性的机器学习研究成果。其中,种族偏见和性别偏见一直存在,但至今没有人给出一个好的解决方案。

      此时,Yann LeCun发布了一条推文来解释PULSE为什么会有这样的偏见。

      “机器学习系统的偏差是由于数据的偏差。这种面部采样系统的结果往往是白色的,因为神经网络是在FlickFaceHQ上预先训练的,而且大多数照片基本上都是白色的,”Yann LeCun说。“如果这个系统是用塞内加尔数据集训练的,那么所有的结果肯定会像非洲人一样。ゥ

      Yann LeCun的说法本身并没有错,但可能是因为它太直白了,这一下子让大量人工智能从业者和研究人员火上浇油。乐村希望引起人们对数据集偏差的关注,但推特用户并不买账,并指责他“用这个老理由掩盖问题的本质”。

      之后,Yann LeCun在几条推文中解释了他对偏见的立场,但似乎没有用。

      “与学术论文相比,部署产品中这种偏见的后果将更加可怕。这句话的意思被解释为“不要太担心这个特殊的情况”,这引起了许多同事的怀疑。

      斯坦福人工智能实验室成员、谷歌人工智能科学家(她是一名非洲裔美国人)蒂姆尼特·格布鲁(Timnit Gebru)对乐村的言论表示“失望”。

      Yann LeCun甚至在Timnit Gebru的推特评论区写了17条回复:

      当然,需要讨论的不仅仅是机器学习中的偏见:

      “在谈话中避免恶意也是必要的,这只会激起情绪,伤害每个人,掩盖实际问题,拖延解决方案的出现。ゥ

      从事数据科学十多年的卢卡·马萨隆(Luca Massaron)认为,尽管从技术角度来看Yann LeCun是完全正确的,但如果你看看这一观点被抛弃后公众的反应,你就会知道谈论它有多敏感。

      卢卡·马萨隆说:“人们总是害怕他们会被不公平的规则所控制,然后无条件地,有时甚至没有理由地,他们害怕人工智能会剥夺人们的自由,而不仅仅是工作。”。“就我个人而言,我不担心像面部描述器这样的研究。我担心的是,我们不能在申请后识别和质疑偏见。ゥ

      如今,越来越多的机器学习自动化技术正在进入我们的生活,立法者在其中扮演着非常重要的角色。在欧盟国家,为了确保数据使用的透明度和责任,GDPR法规要求互联网公司确保算法的可解释性和用户对自己数据的控制。

      如果我们希望人工智能朝着正确的方向发展,我们需要追求的可能不是不偏不倚,而是透明。卢卡认为,如果算法是有偏见的,我们可以挑战其推理结果,并解决问题。然而,如果算法的推理机制是未知的,其中可能隐藏着更大的问题。

      不可否认,人类社会有各种各样的偏见,但是机器更“受欢迎”的答案被认为是理所当然的,这可能不是一个正确的观点。

      许多人对PULSE和乐村袭击的讨论已经偏离了乐村的初衷。

      作为这场争论的起因,杜克大学的研究人员在PULSE网站上表示,他们将纠正关于偏见的问题。目前,本文增加了一个新的部分,并附上了一个可以解决偏差的模型卡。

      为了无偏见地实现目标,我们必须让整个人工无线城市行动起来。然而,大多数人不想看到技术牛在讨论技术时沮丧的结果。Yann LeCun一向以直言不讳著称。他经常评论社交网络上流行的深度学习研究,也可能面临其他著名人工智能研究者的批评。

      机器学习模型中的偏见可能会侵犯推理的专业性,导致大量的业务受到影响但不为人知。我们没有一劳永逸地解决这个问题。

      参考内容:

      http://analyticsindiamag . com/yann-le Cun-machine-learning-bias-default/

      本文由 在线网速测试 整理编辑,转载请注明出处,原文链接:https://www.wangsu123.cn/news/8309.html

          热门文章

          文章分类