伴随人工智能技术的进步,人们对于算力的要求越来越高,这种需求的变化是以周或天记的。相较之下,芯片设计需要的时间明显长得多,这就意味着新微处理器的设计速度已不能满足算法的迭代发展,这就产生了供需的不匹配。
“从现在的情况看,芯片设计需要数年的时间,所以我们现在要做的是,为未来 2 到 5 年后的机器学习模型优化芯片。” 来自谷歌的 Azalia Mirhoseini 及她的同事们如是说。
对此,这个来自谷歌的团队提出了一种新方式来加速芯片设计过程:利用人工智能加速芯片设计,以推动人工智能向更强大的方向发展。
“我们相信,通过人工智能缩短芯片设计周期的方式,可以在硬件和人工智能之间创建一种共生关系,并进一步推动彼此的进步,” Mirhoseini 和同事们表示。
芯片设计是一个复杂而漫长的过程,主要由两个主要元素组成:布局和布线,前者指的是使用设计软件绘制出不同元件的位置,后者则是用线将元件虚拟地连接起来。
以芯片布局为例,这项任务之所以复杂且耗时,是因为该过程涉及到逻辑和内存模块,或者集群设置要兼顾功耗、性能、面积等,与此同时还需要遵守布线密度、互连的原则。
在这种情况下,将芯片布局建模为强化学习问题,强化学习系统的目标是降低功率、改善性能和减少面积。为了找到满足多个目标的最佳芯片布局,AI 算法将需要考虑许多变量,包括满足一定的芯片性能,同时还要避免不必要的复杂设计,否则可能会增加芯片的制造成本。这种平衡是一项耗费芯片开发者智力资源的工作。但现在,谷歌认为自己的 AI 已经做出了成绩。
2020 年 4 月,Mirhoseini 及其团队发表了利用强化学习(reinforced learning,RL)实现自动布局的研究。在设计电路布局时,RL 算法的优势体现在可以使用更少的电线、更有效地利用空间,或者功耗更低。在最初的实验中,相比人类设计师 6 至 8 周内找到的解决方案,算法 24 小时就能实现,而且算法的设计成功减少了芯片所需的总布线,从而提高了效率。