首页> 外文会议>Asia and South Pacific Design Automation Conference >DRiLLS: Deep Reinforcement Learning for Logic Synthesis
【24h】

DRiLLS: Deep Reinforcement Learning for Logic Synthesis

机译:DRiLLS:用于逻辑综合的深度强化学习

获取原文

摘要

Logic synthesis requires extensive tuning of the synthesis optimization flow where the quality of results (QoR) depends on the sequence of optimizations used. Efficient design space exploration is challenging due to the exponential number of possible optimization permutations. Therefore, automating the optimization process is necessary. In this work, we propose a novel reinforcement learning-based methodology that navigates the optimization space without human intervention. We demonstrate the training of an Advantage Actor Critic (A2C) agent that seeks to minimize area subject to a timing constraint. Using the proposed methodology, designs can be optimized autonomously with no-humans in-loop. Evaluation on the comprehensive EPFL benchmark suite shows that the agent outperforms existing exploration methodologies and improves QoRs by an average of 13%.
机译:逻辑综合需要对综合优化流程进行广泛的调整,其中结果的质量(QoR)取决于所使用的优化顺序。由于可能的优化排列数量呈指数级增长,因此有效的设计空间探索具有挑战性。因此,有必要使优化过程自动化。在这项工作中,我们提出了一种新颖的基于强化学习的方法,该方法无需人工干预即可导航优化空间。我们演示了对“优势行动者评论家(A2C)”代理人的培训,该代理人试图最大限度地减少受时间限制的区域。使用提出的方法,可以在无人参与的情况下自主优化设计。对全面的EPFL基准套件进行的评估表明,该代理的性能优于现有的勘探方法,并将QoR平均提高了13%。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号