强化学习(RL)技术通过蒙特卡洛树搜索(MCTS)的加速,成功解决了多资源需求下的DAG问题,优化目标为缩短makespan。根据当前的计算资源和任务状态,MCTS算法被用来探索并选择最佳的动作,在树的扩展和模拟过程中,结合深度强化学习(DRL)技术,以缩小搜索空间,聚焦于更有潜力的动作选择。
在现有状态下,许多动作并非必要进行探索,传统的MCTS采用随机策略选择动作显然效率不高。相比之下,经过训练的DRL模型能够高效地挑选尚未探索的动作,其选择依据策略网络输出的动作概率,使得具有较短makespan的动作具备更高的选取概率。因此,利用训练有素的DRL模型进行动作选择,为makespan的估计提供了更为准确和有意义的依据。