Learning-Based Approximation of Interconnect Delay and Slew in Signoff Timing Tools

只关注delay计算,该论文介绍了一种新的wire model:

key:在signoff工具中匹配互连效果的黑盒建模,来匹配时序图中每个弧上的导线转换、导线延迟、栅极转换和栅极延迟。以前,基于矩的门、线转换、延迟分析模型与signoff中的值有较大的误差。为了减少错误的累积并保持时间之间相关,sizing tools必须频繁调用signoff工具,这会花费许多的时间。

this work:基于学习的方法,将导线的转换和延迟的分析模型与signoff sta工具的估计值匹配。该方法提高延迟以及转换估计的准确性,显著减少尺寸优化期间调用signoff sta tool的次数。

why do this and how think:
1)布局以后,定时恢复以及泄露功率降低是低功耗物理实现流程中非常重要的一步。在这些优化循环的过程中,使用全静态时序分析(sta)进行时序分析会带来效率限制的问题。

2)**在当今物理实现流程中,ista(增量sta)对于路由后定时关闭以及功率优化非常重要**。signoff STA工具(ST)支持增量分析,但在泄漏功率减少循环期间重复调用ST可能会导致高昂的运行时成本。因此,必须构建内部iSTA工具以匹配ST以避免这些限制。

3)内部ista工具需要精确的延迟和转换,以确保在端点处,最坏情况下定时延迟与st中的对应值之间有较小的误差。**然而**,我们的研究表明,众人所知晓的wire delay and slew 模型与st中有较大的误差。

reasons:

- st的建模方式:使用互连效果的黑盒建模,使得内部ista和st匹配非常困难。例如:用来自st中的实际有效电容和输入转换值的栅极转换查找表,这个查出来的结果和st自己直接内部计算返回的值不一样。
- 错的slew估值可能因为沿时序路径的误差传播而能够导致相当大的误差。误差会累积。与ST相比,导致端点松弛中出现较大的正(高估)或负(低估)误差。

4)为了减少误差,两个工具的值相对应。内部iSTA工具必须了解如何承担尽可能不频繁地调用ST的成本。

method:
1)基于机器学习的线延迟/转换的建模方法

2)基于偏移的时序相关方法,来获得有一个ista tool,产生和st相接近的时序值。

IIrelated work:

学术界已经开发了内部STA计时工具,可执行增量计时分析,作为ST的替代方案。UCLA计时器执行统计和确定性计时分析,并报告运行时间减少了31%,与蒙特卡洛模拟相关度高。Hu等人开发了一种计时器,以帮助确定泄漏优化的闸门尺寸。他们实现了一个快速的“增量”STA工具以及一个完整的定时STA工具。使用STA工具,他们提出了一种门大小的启发式方法。当我们在C/C++中实现他们的算法时,我们观察到他们的增量计时工具可能会对ST产生较大的误差。我们的工作与[14]等工作相关,因为我们在内部iSTA工具(使用基于学习的技术)中对线延迟和转换进行建模,以实现与ST的最慢可能的偏离。

Moon等人引入了基于偏移的定时校准。其思想是通过周期性地调用签准计时器,并在每个定时端点存储松弛差(偏移)来提高给定STA引擎的准确性。当STA引擎产生新的定时估计时(例如,在优化期间),它们通过松弛偏移进行调整。我们的分析表明,如果关键路径因大小调整操作而改变,应用基于偏移的端点松弛相关性可能会导致较大的错误。我们的工作与[20]相比有了显著的改进,因为我们将转换、延迟和AAT等其他定时信息与ST相关联。

用于**延迟估计的机器学习方法**可以是强大的,因为它们捕获设计参数(例如,实例数量、主要输入和输出数量、层次结构等)和物理设计上下文(例如,寄生效应、线长度、缓冲区插入等)之间的复杂交互。Gelosh和Setliff[10]提出了一种基于规则的学习方法,类似于分类和回归树,以捕获参数交互来估计面积和延迟。他们报告说,他们的估计是乐观的,误差百分比高达6.67%。Bao[5]提出了一种基于学习的方法,通过拟合Vt交换前后的松弛增量来估计路径松弛,以实现泄漏功率最小化。报告了5.33ps的最坏情况误差。根据[5]的描述,具体的建模参数和表示转换传播效果所需的“下游逻辑量”尚不清楚。此外,缺少测试用例细节(#cells、#nets等)使得很难评估方法和模型对非图形上下文的可扩展性。这些先前的工作报告了**电路中特定路径**的结果,但没有评估设计级端点松弛度量或如何沿时序路径最小化传播的误差。

**机器学习也被用于各种EDA应用中。为了模拟过程变化下的门延迟,Gao等人提出了使用人工神经网络的统计门延迟建模,并对参数空间进行降维**。然而,他们只报告随机路径的结果,而不是真实设计的结果。Gan等人在**拟合回归模型以估计路径延迟的同时**,捕捉了内部和内部空间变化以及温度的时间波动的影响。他们在32KB的缓存上验证了他们的方法,使用SPICE模拟来训练和测试他们的模型,并报告了小于5%的中值误差。Samanta等人[22]使用支持向量机回归进行导线和缓冲区大小调整,以最小化非树时钟网络的变化。他们通过基于机器学习的尺寸调整算法,将歪斜减少了45%。

IIImethodology

1)wire delay and slew模型

- wire delay:elmore delay/D2M

  elmore delay:脉冲响应的第一个瞬间,存在高度电阻屏蔽时可能不准确

  D2M:具有两个矩的延迟,前两个电路矩的函数。

- wire slew:PERI/scaled S2M/Lognormal slew

  对于线延迟,我们选择D2M、D2Mr、EM、α·D2M(AD2M)和α·EM(AEM)作为回归因子,选择α、T和D2Mr作为分类器。对于导线转换,我们选择PERI、S2Ms、S2M、LNS和LNS作为回归变量,选择α和T作为分类器。我们详尽地研究了用于线延迟和转换的{一,二,三}回归器×{零,一,二}分类器的组合,并使用此分析来导出我们的最佳基于学习的模型(ML)

我们通过使用最小二乘回归(LSQR)拟合ST中的值来导出导线延迟和转换模型。我们从基准网表中生成训练样本,这些网表没有松弛违规,并且包含单元大小和类型的异质混合。从ST中,我们获得网表中每个引脚的延迟和转换,并将我们的模型与ST中的数据进行拟合。我们使用50%的这些数据点进行训练,使用LSQR导出模型,在所有数据点上测试模型,并计算估计误差。图4显示了估计电路延迟所需参数的流程图。

你可能感兴趣的:(关于delay论文,人工智能,深度学习,硬件工程)