world quant global alphathon 全球总决赛 第二名经验分享

目录

  • world quant简介
  • 比赛简介
  • 数据集
  • 经验分享
    • 通过期权价格构造因子
    • lead lag 效应
    • 波动率因子
    • 动量+反转
    • 反转因子+情绪
  • 总结

比赛还没结束,先蹭蹭余温的热度。为了学习写因子搜到了world quant的网络平台,玩了一下然后进了他们的全球决赛。

这个比赛和机器学习比赛稍微有点不同,之前做过的比赛特征都只是随便写一下,而这个比赛的重心则是特征(因子)。

world quant简介

WorldQuant(世坤咨询)成立于2007,总部位于美国,目前在全球有27家办公室,超过700位正式员工,管理过百亿美元规模资金。该公司用量化方式分析海量数据,应用于全球市场的各类资产中。

WorldQuant创始人伊戈尔 (Igor Tulchinsky)曾任全球十大知名对冲基金之一千禧基金(Millennium Partners)的董事总经理。源于伊戈尔对千禧基金的贡献以及千禧基金对伊戈尔投资能力的认可,使得至今为止世坤管理的大部分资金都来自千禧基金。

比赛简介

2019年worldquant办过类似的比赛,但是那次比赛中不需要考虑因子的质量,只需要随机提交能通过筛选条件的因子就可以获取好名次了。而这一次的比赛则更加困难,需要考虑因子的质量和因子融合后的分数,从本质上来讲,等于是需要选手考虑模型层面的事情了,比赛的选手更像在同时扮演 quant researcher + portfolio manager 两个角色(得加钱啊)。

分数通过融合后得因子的表现来得出,而因子则通过简单的线性相加进行融合。

数据集

比赛方提供了以下几种数据集,数据总数则有3,434。数据集这么多,能够尝试的思路也就很多了,比赛的关键在于如何构造出多样的因子。

  • Company Fundamental Data for Equity
  • US News Data
  • Report Footnotes
  • Model Data
  • Volatility Data
  • Ravenpack News Data
  • Options Analytics
  • Fundamental Analysis Model
  • Price Volume Data for Equity
  • Sentiment Data for Equity
  • Systematic Risk Metrics
  • Fundamental Scores
  • Model Rating Data

经验分享

一句话:有手就行。
价量因子,主要的思路可能在于动量与反转,以均值回归为主要思想来构造特征。
这里列举一下比赛方提供的一些因子样例:

通过期权价格构造因子

world quant global alphathon 全球总决赛 第二名经验分享_第1张图片
这个因子通过 看涨期权价格 的走势来获取信息,期权市场中有很多专业的交易者,他们的想法会体现在call价格的变化上。

lead lag 效应

world quant global alphathon 全球总决赛 第二名经验分享_第2张图片
这里算是一种lead-lag类型的因子,但是把snt_buzz_ret直接换成returns效果其实也差不多。

波动率因子

world quant global alphathon 全球总决赛 第二名经验分享_第3张图片
通过买、卖期权的implied volatility来获取alpha信号,思路是利用期权市场的专家信息来判断股市的走势。

动量+反转

world quant global alphathon 全球总决赛 第二名经验分享_第4张图片
通过个股与市场的相关度,判断它是处于动量还是反转的状态。

反转因子+情绪

world quant global alphathon 全球总决赛 第二名经验分享_第5张图片
利用情绪因子增强反转因子。

总结

参加比赛的选手中有不少名校学生,也有kaggle GM组队参加,总体来说竞争还是很激烈。我这边只有我一个人提交,加上初期提交了很多低质量的因子,后来能把分数提升上来真的是很辛苦…

另一方面,不知道为什么,越南排在前两名的参赛者的上分节奏异常凶猛,感觉可能比专业的研究员更强…

写因子总体来说,从某一种思路出发可能会更好一些,写出来的因子泛化能力也会更强一些。虽然也可能通过机器来进行遗传算法搜索,但是进行相关性控制后,机器搜索出来的因子,大部分可能是冗余的,克服这方面问题的方法应该也是存在的,有相关经验的大佬希望不吝赐教。

你可能感兴趣的:(金融,人工智能,深度学习,数据挖掘)