谷歌新成果公布,称其 AI 模型可在 6 小时内设计出计算机芯片

  • A+
所属分类:技术资讯

技术编辑:Wang Zhizhi在Carl blog中的第四大car博客报道公开号码:Carl blog
最近,Google AI主管Jeff Dean与Google研究部门、Google芯片实施和基础结构团队一起撰写了描述基于学习的芯片设计方法的论文,并声称在平均6小时内完成芯片设计。
据悉,该研究是以谷歌3月发表的一篇论文为基础进行的,推进了当时提出的技术方向。
这篇论文的发表意味着晶体管的布置可以很大程度上实现自动化。如果能公开技术结果,这项技术就能让资金困难的新生企业为人工智能或其他行业的研究应用程序开发自己的芯片。此技术还缩短了芯片的设计周期,有助于硬件更好地适应理论研究的快速发展。
杰夫迪恩在去年年底的采访中表示,这项技术“从所希望的设计开始,实际铺设在芯片上,对面积、电力、线路长度等有适当的限制,是一个满足所有设计或制造过程的长期过程,我们基本上设计了机器学习模型,可以学习如何为特定芯片放置组件。”。”
此AI模型的方法旨在通过在芯片画布上放置逻辑网关、存储和更多网格图,在遵守布局密度和路由拥塞限制的同时优化功耗、性能和面积(PPA)。地图大小由数百万到数十亿个节点组成的群集是多种多样的,通常需要几小时到一天以上的时间来评估目标指标。
该框架通过改进的学习培训指导优化芯片布局的模型,提供网络表、当前要放置的节点的ID、网络表和半导体技术的元数据。策略AI模型输出可用布局的概率分布,而价值模型估计当前布局的预期效果。
实际上,从空芯片到上述模型按顺序放置组件,直到网络表完成,最后才获得波长(与功率和性能相关)和拥塞度的负权重总和(根据密度限制)。为了引导模型,组件按大小排序,以便选择首先放置哪些组件;先放置大型组件可减少以后没有可行放置的可能性。
要培训此模型,需要创建由10,000个芯片放置的数据集。其中输入与给定放置相关,标签是放置的补偿效果(即线和拥塞)。研究人员首先选择并构建5个不同的芯片网络表,然后应用AI算法为每个网络表创建2000个不同的部署状态。
在实验中,研究者们报告说,随着在更多芯片上训练该框架,他们可以加快训练过程,更快地产生优质结果。实际上,他们声称此框架在TPU上实现了比最佳基线更好的PPA。
研究人员总结说,与传统方法不同,我们的工作利用从部署前芯片中获得的知识,优化每个新芯片的部署,使其随着时间的推移变得更好。您还可以直接优化目标指标,如线长度、密度和拥挤度,而无需像其他方法那样定义函数。新的成本函数出现时,公式不仅可以容易地包含在内,还可以根据给定芯片块的要求(例如,定时键或功率限制)加权相对重要性。‘’
来源:Venturebeat: 《Google claims its AI can design computer chips in under 6 hours》

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: