北极星

搜索历史清空

  • 水处理
您的位置:电力配售电售电服务评论正文

在电力现货市场下如何最大化售电商参与需求侧响应的长期收益?

2019-10-22 11:42来源:电网技术关键词:电力现货市场售电电力体制改革收藏点赞

投稿

我要投稿

图6 在20次需求响应时的实时电价Fig. 6 Real-time electricity price at 20 demand responses

图7表示计及了长期收益的强化学习算法和只计及当次收益最大的方法分别计算得到的当次需求响应发布的最优补贴价格,其中,只计及当次收益最大的方法是指对当次需求响应前用户的负荷遍历所有的补贴价格,选出其中使得售电商当次收益最大的价格。可以看出,如果售电商只考虑当次需求响应收益最大化,其得到的补贴价格较为平稳,而强化学习算法计算得到的补贴价格则起伏较大,这是因为本文参考鲁棒优化的思想,加大了如图2所示的上一次发布的补贴价格pt−1rprt−1对5个用户舒适成本的影响,若在该极端的场景下本方案可行,那么在用户舒适成本小范围波动的情况下,本方案也是可行的。

17.png

图7 售电商在20次需求响应时发布的补贴价格Fig. 7 Subsidy price issued by the electricity seller in 20 demand responses

现对算例中用户的响应结果进行分析,其中,图8和图9分别表示使用当次收益最大方法和强化学习方法得到的20次需求响应中用户的响应负荷,可以看出,强化学习方法得到的用户响应负荷普遍较高,一方面是因为该方法得到的补贴价格比较高,另一方面是因为当上一次的补贴价格较高时,用户的舒适成本会相应降低,从而使得用户的响应负荷提高。图10表示了这两种方法得到的20次需求响应中用户的总响应负荷,可以看出,强化学习方法能明显提高用户的响应量。

21.png

图11 20次需求响应时获得的当次收益Fig. 11 Current income obtained from 20 demand responses

图11表示强化学习方法和当次收益最大方法在20次需求响应过程中分别获得的收益,可以发现,虽然有时强化学习算法获得的收益比较低,但多数情况下还是高于常规算法的,这是因为强化学习算法有时会牺牲一定的短期收益,以达到长期收益最大化的目的。

为了便于分析,现将图7和图11放在同一个图中表示,如图12。可以看出,当强化学习方法得到的补贴价格较高时,售电商的收益较低,且普遍低于使用当次收益最大方法获得的收益;当强化学习方法得到的补贴价格较低时,售电商获得的收益明显高于当次收益最大方法获得的收益,这是因为当强化学习方法得到的补贴价格偏高时,售电商的收益会降低,但用户由于获得了更多的奖赏,在后续的需求响应中切除负荷时的痛苦程度降低,舒适成本下降,能够响应更多的负荷,因此售电商在下一次需求响应中发布较低的补贴价格时,也能得到高的响应负荷,从而获得高的收益。

22.png

图12 两种方法得到的补贴价格与收益Fig. 12 Subsidized prices and benefits from both methods

图13表示强化学习方法和当次收益最大方法在20次需求响应过程中分别获得的累积收益,可以看出,计及了长期收益的强化学习算法能明显使售电商获得更高的利益。

投稿与新闻线索:陈女士 微信/手机:13693626116 邮箱:chenchen#bjxmail.com(请将#改成@)

特别声明:北极星转载其他网站内容,出于传递更多信息而非盈利之目的,同时并不代表赞成其观点或证实其描述,内容仅供参考。版权归原作者所有,若有侵权,请联系我们删除。

凡来源注明北极星*网的内容为北极星原创,转载需获授权。

电力现货市场查看更多>售电查看更多>电力体制改革查看更多>