1.对复杂度的分析还不够;
2.融合两种指标的解释还不够,审稿人认为这两种指标存在冲突,不能同时优化,但其实我们考虑的是公平性保证整个调度周期内用户分配到了更加平均的sum-rate,而se是为了追求每个调度时刻都尽可能找到信道条件最好的用户。虽然看起来冲突,但是公平性作为se的系数会影响整体的reward,因为后期策略学习到了不会违规,即每次能选择的用户数量保持一定。然后如果经过这么多调度时刻之后学到了一个不好的策略,fair维持到一个比较低的值,作为系数会极大影响奖励因为如果系数偏低可能降低一个数量级或者减半,而后期如果fair能够找到一个高点,此时获得的se虽然相比于最优策略低但是由于选择的用户数量基本一致,所以整体还是维持在一个数量级,这样就实现了两种指标的平衡;
从实验得到的数据也可以看到,两种指标其实是能够在调度周期内的后期实现一个平衡的。
3.第三个审稿人提出的更多是关于写作方面的问题;
4.第一个审稿人和第四个审稿人提出的关于补充实验的问题比较多;
5.关于时间性能上无法符合5G的亚毫秒级,我感觉是因为自己机器的推理速度导致的。根本不可能达到审稿人说的这个速度;这个问题该怎么回?
6.和PPO比较了,和其他算法比较,实现起来不是不可以就是需要改动很多,因为本身就是对策略网络进行了复杂的加工,改用SAC这种,还是比较复杂,用A2C这种原始的比较简单。
7.奖励函数融合了两种指标和两种惩罚项。进行了消融实验