Tensor设计不到24小时搞掂!谷歌强化学习攻克AI芯片设计周期难题

      最后更新:2020-04-10 11:32:38 手机定位技术交流文章

      设计芯片需要几年时间。现在人工智能可以缩短芯片的设计周期。使用人工智能设计芯片将促进良性循环,人工智能使芯片更好,然后这些改进的芯片将增强人工智能算法的功能。

      编制

      众所周知,人工智能芯片是影响人工智能三要素算法、计算力和数据的重要因素之一。人工智能芯片也称为人工智能加速器或计算卡,即人工智能应用中专门用于处理大量计算任务的模块(其他非计算任务仍由中央处理器负责)。人工智能研究机构OpenAI曾指出,“高级人工智能所需的计算能力每三个半月翻一番”。

      过去,设计芯片需要几年时间,这与日益迭代的人工智能算法相矛盾。

      此前,两个EDA巨头Synopsys和Cadence在芯片设计工具中增加了人工智能,以加快芯片生产。EDA的主要工作是为芯片公司开发一系列设计工具。作为集成电路芯片产业链的最上游,他们承担高科技工作。芯片设计涉及数十或数百种设计工具,包括布局规划、物理验证、模拟和硬件描述语言。

      尤其是在布局规划中,芯片工程师必须使用专有工具在芯片板上“排列”数亿个晶体管,这仅靠人力是无法做到的。布局规划是放置芯片的宏单元模块,一般决定各功能电路的放置位置,并直接影响芯片的最终面积。

      EDA巨头之一的Synopsys推出了数字示波器。人工智能,一种用于芯片设计的自主人工智能应用程序。通过获取芯片设计工具生成的大数据流,可以探索search 空,观察设计随时间的演变,同时调整设计选择、技术参数和工作流程,引导探索过程向多维优化发展。

      Cadence还推出了新版本的Cadence数字全流程,该流程使用了许多行业领先的技术,如统一布局和路由支持机器学习(ML)功能和物理优化引擎,吞吐量高达3倍,PPA高达20%。通过两大EDA巨头的布局,人工智能应用于人工智能芯片的趋势已经出现。

      为了保证设计的芯片能够更好的满足快速迭代算法。最近,谷歌的高级研究科学家阿扎利亚·米罗西尼(Azalia Mirhoseini)和高级软件工程师安娜·戈尔迪(Anna Goldie)在一篇题为“基于深度强化学习的布局优化”(Layout Optimization with Deep Energy Learning)的研究论文中提出了一种强化学习算法,用于芯片的设计布局,以缩短芯片的设计周期。

      这篇论文于3月18日在arxiv上发表。他们在论文中提到,“我们相信人工智能将缩短芯片的设计周期,在硬件和人工智能算法之间建立一种共生关系,并进一步促进彼此的进步。ゥ

      目前,谷歌已将其经验应用到实际流程中。它可以在不到24小时内完成谷歌张量处理器的设计。它的功耗、性能和面积(PPA)几周内都超过了人类专家的设计结果。

      张量处理单元在不到24小时内完成。

      通常,工程师可以花费30个小时来配置单个芯片布局规划或芯片规划。这个复杂的3D设计问题需要在一个受约束的区域中跨多个层配置数百甚至数千个组件。工程师将手动设计配置,以最大限度地减少组件之间使用的电线数量,从而提高效率。

      因为这很耗时,这些芯片只能使用2到5年。然而,随着机器学习算法的逐年改进,对新芯片架构的需求也在增加。

      面对这些挑战,谷歌研究人员安娜·戈尔迪和阿扎莉亚·米罗西尼研究了一种强化学习算法。这种强化学习算法使用正反馈和负反馈来学习复杂的任务。为此,研究人员设计了一个所谓的“奖励函数”,根据算法的设计性能来惩罚和奖励算法。然后,该算法产生了数以千计的新设计,每一个都在不到一秒钟内完成,并用奖励函数进行评估。最后,它为如何放置这些芯片组件创建了最佳策略。

      他们将芯片布局建模为强化学习问题。与典型的深度学习不同,强化学习系统不训练大量的标签数据。相反,他们会边做边学,并在成功时根据奖励信号调整网络中的参数。在这种情况下,奖励是降低功耗、提高性能和缩小面积组合的替代指标。因此,布局机器人执行的设计越多,它的任务就越好。

      经过长时间的芯片设计学习,该算法能够在不到24小时内完成对谷歌张量处理器的设计。它的功耗、性能和面积(PPA)几周内都超过了人类专家的设计结果。

      经过测试,研究人员用电子设计自动化软件检查了他们的设计,发现用人工智能处理的平面图比手工工程师设计的要有效得多。此外,该系统还可以教员工一两项新技能。

      第二,人工智能被用来设计芯片的良性循环。

      自2015年初以来,谷歌在其数据中心部署了张量处理单元(TPU芯片)。TPU是一个定制的机器学习芯片,由谷歌设计,以成功执行其正常的机器学习工作。

      目前,谷歌已经形成了TPU矩阵,包括TPU,第二平台,第三平台,边缘TPU,第五平台,第三平台。

      早在2016年5月的谷歌输入输出大会上,谷歌就宣布了自己的TPU;设计;在2017年的谷歌输入输出会议上,谷歌宣布正式推出第二代TPU处理器。在2018年的谷歌I/0大会上,谷歌发布了第三代TPU处理器,随后在2018年的下一次云计算大会上,谷歌发布了边缘TPU芯片来攻击边缘计算市场。

      边缘TPU是一个强大的云TPU(张量处理单元)处理器的简化版本,是一个专用集成电路芯片,旨在运行边缘的张量流精简模型。边缘TPU是对中央处理器、图形处理器、现场可编程门阵列和其他在边缘运行人工智能的专用集成电路解决方案的补充。它将使传感器和其他设备能够更快地处理数据,并大大突破边缘计算设备的窄空范围和功率限制。

      (边缘TPU)

      直到2019年5月,谷歌发布了第二代和第三代可扩展云超级计算机TPU Pod。第二代TPU吊舱可容纳512个内核,每秒可实现11.5亿次浮点运算。第三代TPU吊舱甚至更快,每秒钟超过100亿次浮点运算。

      谷歌在TPU系列的进展凸显了谷歌强大的计算能力。由于谷歌可以在不到24小时内完成谷歌张量处理器的设计,这也意味着这些芯片可以开发得更快。

      早在今年2月中旬,ZDnet报道称,谷歌人工智能研究主管杰夫·迪恩(Jeff Dean)公开表示,Alphabet的谷歌部门正在尝试人工智能(https://www.cnet.com/tags/artificial-intelligence/)项目,以促进专用芯片的内部开发,从而加快其软件开发速度。这一过程可能有助于谷歌削减成本,生产更有效的设计。

      他在旧金山举行的年度技术研讨会——国际固态电路会议上发表了主旨演讲,并向观众介绍了如何使用机器学习程序来设计计算机芯片的电路。迪恩说,深度学习的神经网络只需要24小时就能找到更好的解决方案,而人类设计师需要6到8周才能解决。

      他说,这个深度学习项目类似于谷歌深度思维征服围棋开发的阿尔法零号项目。和阿尔法零一样,芯片设计程序也是一种叫做强化学习的形式。为了实现一个目标,该计划将尝试不同的步骤,看看哪些步骤可以带来更好的结果。

      对谷歌来说,用人工智能来设计人工智能芯片是一种创新尝试。用人工智能设计芯片也创造了一个良性循环,人工智能使芯片更好,然后那些改进的芯片将增强人工智能算法的功能,等等。

      在整个领域的历史中,人工智能的进步与芯片设计的进步密切相关。希望该算法能加快芯片设计过程,改善芯片结构,从而加速人工智能产业的发展。

      本文由 在线网速测试 整理编辑,转载请注明出处,原文链接:https://www.wangsu123.cn/news/4054.html

          热门文章

          文章分类