奖励函数设计的合理性对于提升深度强化学习算法的性能至关重要。针对投资组合管理任务,识别并解决了现有奖励函数的两大缺陷:一是过度关注短期市场波动而忽略长期趋势;二是对带来奖励和造成损失行为的奖惩相当,这并不符合投资者的损失...奖励函数设计的合理性对于提升深度强化学习算法的性能至关重要。针对投资组合管理任务,识别并解决了现有奖励函数的两大缺陷:一是过度关注短期市场波动而忽略长期趋势;二是对带来奖励和造成损失行为的奖惩相当,这并不符合投资者的损失厌恶心理。为此,借鉴行为金融学中的投资者损失厌恶理论,创新性地提出了一种多步损失厌恶(Multi-step Loss Aversion,MSLA)奖励函数,以更准确地刻画投资者在交易中的行为模式,并据此构建了在线投资组合管理策略。选取A股市场上三个具有代表性的指数,构建了相应的投资组合,在2019年至2023年的历史数据上进行了回测实验。实验结果表明,MSLA奖励函数显著提升了策略的整体性能,从累计收益率、夏普比率和最大回撤等指标来看,普遍优于现有的其他算法。此外,该策略不仅适用于不同市值大小股票组成的投资组合,而且在上涨、下跌和震荡的市场状态下均能保持稳健的性能,这充分说明了该算法在投资组合管理中的有效性和实用性。展开更多
为在大数据环境下处理高维矩阵和应用奇异值分解提供更高效的解决方案,从而加速数据分析和处理速度,通过研究随机投影以及Krylov子空间投影理论下关于高维矩阵求解特征值特征向量(奇异值奇异向量)问题,分别总结了6种高效计算方法并对其...为在大数据环境下处理高维矩阵和应用奇异值分解提供更高效的解决方案,从而加速数据分析和处理速度,通过研究随机投影以及Krylov子空间投影理论下关于高维矩阵求解特征值特征向量(奇异值奇异向量)问题,分别总结了6种高效计算方法并对其相关应用研究进行对比分析。结果表明,在谱聚类的应用上,通过降低核心步骤SVD(Singular Value Decomposition)的复杂度,使优化后的算法与原始谱聚类算法的精度相近,但大大缩短了运行时间,在1200维的数据下计算速度相较原算法快了10倍以上。同时,该方法应用于图像压缩领域,能有效地提高原有算法的运行效率,在精度不变的情况下,运行效率得到了1~5倍的提升。展开更多
文摘奖励函数设计的合理性对于提升深度强化学习算法的性能至关重要。针对投资组合管理任务,识别并解决了现有奖励函数的两大缺陷:一是过度关注短期市场波动而忽略长期趋势;二是对带来奖励和造成损失行为的奖惩相当,这并不符合投资者的损失厌恶心理。为此,借鉴行为金融学中的投资者损失厌恶理论,创新性地提出了一种多步损失厌恶(Multi-step Loss Aversion,MSLA)奖励函数,以更准确地刻画投资者在交易中的行为模式,并据此构建了在线投资组合管理策略。选取A股市场上三个具有代表性的指数,构建了相应的投资组合,在2019年至2023年的历史数据上进行了回测实验。实验结果表明,MSLA奖励函数显著提升了策略的整体性能,从累计收益率、夏普比率和最大回撤等指标来看,普遍优于现有的其他算法。此外,该策略不仅适用于不同市值大小股票组成的投资组合,而且在上涨、下跌和震荡的市场状态下均能保持稳健的性能,这充分说明了该算法在投资组合管理中的有效性和实用性。
文摘为在大数据环境下处理高维矩阵和应用奇异值分解提供更高效的解决方案,从而加速数据分析和处理速度,通过研究随机投影以及Krylov子空间投影理论下关于高维矩阵求解特征值特征向量(奇异值奇异向量)问题,分别总结了6种高效计算方法并对其相关应用研究进行对比分析。结果表明,在谱聚类的应用上,通过降低核心步骤SVD(Singular Value Decomposition)的复杂度,使优化后的算法与原始谱聚类算法的精度相近,但大大缩短了运行时间,在1200维的数据下计算速度相较原算法快了10倍以上。同时,该方法应用于图像压缩领域,能有效地提高原有算法的运行效率,在精度不变的情况下,运行效率得到了1~5倍的提升。