星期

2020年04月07日

南科大杨再跃课题组在电力系统、机器学习等领域取得重要研究成果

2020-04-07 14:56:34 来源:互联网 阅读:-

近日,我校机械与能源工程系杨再跃教授课题组取得电力系统、机器学习等领域的多项重要研究成果,在电力系统顶级学术期刊IEEE Transactions on Smart Grid和IEEE Transactions on Power Systems上发表三篇论文,并在机器学习领域顶级学术会议The 33rd Conference on Neural Information Processing Systems (NeurIPS 2019)上发表一篇论文。

南科大杨再跃课题组在电力系统、机器学习等领域取得重要研究成果

第一项研究成果与大规模用电设备的最优快速管理有关,该成果发表在电力领域顶级学术期刊IEEE Transactions on Smart Grid上。论文主要由南科大和浙江大学共同完成,杨再跃为通讯作者。

用电设备的最优管理是智能电网中实现需求侧响应的关键一环。然而该问题通常需要同时管理调度大量的用电设备,同时考虑多个时槽,是一个时间空间耦合的复杂问题,想要在短时间内解决该问题十分困难。因此,如何设计合理的算法,提高计算效率,降低计算时间,是目前的研究热点。

南科大杨再跃课题组在电力系统、机器学习等领域取得重要研究成果

图1 左:算法计算速度 ;右:算法成功率


为了提高管理效率,课题组基于最优化理论将原问题转变成变量维度更少的等价问题,提出了一个分布式的最优快速管理算法。此算法避免了参数的改变带来的算法可能不收敛的问题。最后将新的算法和常用的内点法以及对偶分解法进行对比,仿真结果表明,新算法的计算速度更快,对参数的敏感度更低,同时能够保证收敛性。

第二项成果研究了如何降低云服务商电力成本的问题,该成果发表在电力领域顶级学术期刊IEEE Transactions on Smart Grid上。论文主要由南科大、浙江大学和香港中文大学共同完成,杨再跃为通讯作者。

此研究成果考虑云服务提供商在同一电力市场中运营多个数据中心的场景,假设服务商可以在数据中心之间进行工作负载转移。由于数据的电力需求巨大,负载转移能够影响电力市场的节点边际电价。课题组将所研究的问题建模为一个双层问题,以探究最小化服务商运营成本的任务转移策略,该问题考虑了数据中心的市场力。上层是服务商的运营成本最小化问题,下层是确定电价的电力经济调度问题。

南科大杨再跃课题组在电力系统、机器学习等领域取得重要研究成果

图2 左:节点边际电价;中:数据中心任务处理量;右:发电机发电量


求解一般的双层问题很有挑战性。因此,课题组首先将原始问题转化为一个等价的单层问题,然后根据问题的性质发现该问题的可行域为非凸多面体,提出一种基于分支定界法的算法来求解该问题。该算法通过将可行域切成多个凸集,求解多个线性优化问题,最终得到原问题的解。此外,考虑到实践中变化的通信环境,该研究分析了转移价格不确定性对服务商总成本的影响,并表明保持通信代价期望不变时随着不确定性的增加,期望总成本出人意料地降低。基于标准IEEE测试用例的仿真表明,服务商的成本已大大降低,并且服务商和电力系统有可能实现双赢。课题组提出的price maker模型使得电网中电价差异更小,说明资源配置(数据中心资源及电力资源)更合理。

第三项成果研究了电动汽车参与电网相位平衡的激励策略问题。该成果发表在电力领域顶级学术期刊IEEE Transactions on Power Systems上。论文主要由南科大、浙江大学、香港中文大学和香港科技大学共同完成,杨再跃为通讯作者。

配电网中的相位不平衡会带来功率损耗、电能质量恶化等问题。在此研究中,课题组通过设计合理的激励策略,鼓励电动汽车用户利用其充电弹性,参与电网的相位平衡,保证电网的稳定性和安全性。

南科大杨再跃课题组在电力系统、机器学习等领域取得重要研究成果

图3 左:电动汽车充电充本;右:电网相位不平衡


课题组考虑电动汽车用户在满足充电需求的前提下,最小化充电成本并且最大化参与相位平衡获得的报酬,将其建模成一个非合作博弈问题,然后证明了纳什均衡的存在性,并提出了一个分布式算法求解可能的均衡点。仿真结果表明,合理的激励策略既可以降低电动汽车充电成本,也可以减小配电网的相位不平衡,实现用户与配电网的双赢。

第四项成果研究了低通信开销的分布式学习问题,该成果发表在机器学习领域顶级学术会议The 33rd Conference on Neural Information Processing Systems (NeurIPS 2019)上。论文主要由南科大、浙江大学、伦斯勒理工学院和明尼苏达大学共同完成。

南科大杨再跃课题组在电力系统、机器学习等领域取得重要研究成果

图4 左:损失v.s.迭代次数;中:损失v.s.通信次数;右:损失v.s.比特数


目前,训练机器学习模型依赖于海量的数据,当以集中方式训练时,会带来很大的计算成本。因此,现在普遍的共识是,未来的机器学习应该以分布式方式实施。通常,分布式学习是以server-worker模式中进行的,其中server利用从workers收集的信息更新学习参数,然后将这些参数广播给workers。 但是,随着worker数量的增加,通信开销也会大幅增加。此研究使用信息压缩以及自适应通信来减小分布式机器学习的通信量,并从理论上证明了提出的算法能够快速收敛。实验结果验证了课题组提出的方法(LAQ)能比已有算法更有效地减小训练过程中传输的比特数。

杨再跃教授主要致力研究大规模网络化系统的协同优化与控制,主要应用领域包括电力系统、交通系统、传感网等。目前主持承担国家级科研项目3项、省部级科研项目2项、深圳市科研项目1项、企业合作项目2项。发表期刊会议论文百余篇,其中SCI论文50篇(近5年发表25篇),IEEE Trans论文34篇(近5年发表27篇)。论文引用次数超过2000次,单篇最高引用超过380次,ESI高引论文3篇,H影响因子=20(谷歌学术)。

文章链接:

  1. 1. https://ieeexplore.ieee.org/abstract/document/8784421
  2. 2. https://ieeexplore.ieee.org/document/8963651
  3. 3. https://ieeexplore.ieee.org/abstract/document/8862870
  4. 4. http://papers.nips.cc/paper/8598-communication-efficient-distributed-learning-via-lazily-aggregated-quantized-gradients

推荐阅读:麒麟710和骁龙845哪个好