
为什么量化投资一定要多模型
有些新手会问量化投资为什么这么多模型,,为什么不找一个收益率最高的做?为什么不找一个夏普比率最高的做?我今天来分享一下为什么量化投资必须要多个模型。
首先看几个概念:收益和波动,赔率和概率,优化和过度拟合
收益和波动
“Outperforming the market with low volatility on a consistent basis is an impossibility. I outperformed the market for 30-odd years, but not with low volatility.” ---George Soros
“持续超越市场却保持低的波动性是不可能的事。我在30多年里超越了市场,但波动性却并不低。”---索罗斯
很多职业投资者的目标都是超越市场。但问题在于,大多数投资人都希望长期获得高回报并超越市场,但同时却厌恶短期的大幅度波动。遗憾的是,投资组合的低波动与超越市场的表现不可兼得。
作为衡量市场表现的标准,美国标准普尔500指数从1985年12月底到2000年4月底上涨很多,相当于把100块钱变成了687块钱。但巴菲特则相当于把100块钱变成了4605块钱,远远超越了市场。虽然巴菲特和索罗斯远远超越了市场,其波动性也非常大。超越市场越多的,其波动性也越大。可以说超越市场的代价之一就是大幅度的波动。
从实证的的角度看,很多表现优秀的基金超越市场不是持续稳定的超越,具有稳定的优势,而是在市场不好时超越,在市场狂热时表现一般,甚至逊色。换句话说,战胜市场不是多赢,而是少输。
概率和赔率
概率和赔率的组合就是期望,经常有人说量化朝着大概率的方向做,但有没有想过0.9概率为正但收益是10%,而0.1的概率为负但收益是-99%呢?其实,量化是朝着高期望的方向做,这个例子的期望收益是-0.9%,赌久了肯定亏干净。
很多策略在高夏普比率的背后,统计的时候经常会发生胜率低于50%的情况,背后的原因就是虽然胜率可能偏低,但每次失败后的回撤控制的好,而一旦策略成功后贡献的盈利比例很高,于是整体的期望值较高,符合量化投资选择策略的标准。
优化和过度拟合
通过对上面期望值的筛选后,初选出来的量化模型需要进一步优化,比如测试新参数、测试适应哪些行情等,通过测试不同参数可以得到对历史行情更为有效的策略。也可以根据2011-2013的数据测试出来的参数应用在2014的行情上,这样多次测试后总能挑选出一个比较优化的模型。
值得一提的是,回测策略最需要避免的问题是过度拟合,比如当拿到过去十年的数据后,大致使用10种方案进行回测后发现一种比较有效,然后以此为基础分析了10种改进,再选出一个进行改进,无数次改进后总能做到一个对过去数据无比有效的方案,可这种方案不会有任何参考价值,因为其对历史数据过度拟合了。
量化的本质
若能开发足够多的模型,每个模型分配一定比例的仓位,各自根据系统信号独自运作,那么整体资金曲线就不会大起大落。
对于每一个交易策略来看,要想获得高收益必定承受高波动,对其优化的时候两者一定无法兼顾,且时间轴上来看无法做到适应所有的行情。由于交易策略不会适应所有的市场行情,所以在某一个策略无效时,不会给整个资金带来致命损失,所以管理人要经常测试所有的模型,以及时调整参数、删减模型、增加模型。
文中第一部分论述高收益和低波动是矛盾的,第二部分讲概率和赔率的矛盾,第三部分讲优化与过度拟合的矛盾。所有想表达的,化作一句话就是没有一劳永逸的交易系统,追求在所有行情下都合适的交易系统是徒劳的。选择不同交易策略的时候最好使得其有一定的互补性,也就是降低其相关系数,这样多套系统同时运作会降低标准差,获取更高的夏普比率。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在大模型从实验室走向生产环境的过程中,“稳定性” 是决定其能否实用的关键 —— 一个在单轮测试中表现优异的模型,若在高并发 ...
2025-10-15在机器学习入门领域,“鸢尾花数据集(Iris Dataset)” 是理解 “特征值” 与 “目标值” 的最佳案例 —— 它结构清晰、维度适 ...
2025-10-15在数据驱动的业务场景中,零散的指标(如 “GMV”“复购率”)就像 “散落的零件”,无法支撑系统性决策;而科学的指标体系,则 ...
2025-10-15在神经网络模型设计中,“隐藏层层数” 是决定模型能力与效率的核心参数之一 —— 层数过少,模型可能 “欠拟合”(无法捕捉数据 ...
2025-10-14在数字化浪潮中,数据分析师已成为企业 “从数据中挖掘价值” 的核心角色 —— 他们既要能从海量数据中提取有效信息,又要能将分 ...
2025-10-14在企业数据驱动的实践中,“指标混乱” 是最常见的痛点:运营部门说 “复购率 15%”,产品部门说 “复购率 8%”,实则是两者对 ...
2025-10-14在手游行业,“次日留存率” 是衡量一款游戏生死的 “第一道关卡”—— 它不仅反映了玩家对游戏的初始接受度,更直接决定了后续 ...
2025-10-13分库分表,为何而生? 在信息技术发展的早期阶段,数据量相对较小,业务逻辑也较为简单,单库单表的数据库架构就能够满足大多数 ...
2025-10-13在企业数字化转型过程中,“数据孤岛” 是普遍面临的痛点:用户数据散落在 APP 日志、注册系统、客服记录中,订单数据分散在交易 ...
2025-10-13在数字化时代,用户的每一次行为 —— 从电商平台的 “浏览→加购→购买”,到视频 APP 的 “打开→搜索→观看→收藏”,再到银 ...
2025-10-11在机器学习建模流程中,“特征重要性分析” 是连接 “数据” 与 “业务” 的关键桥梁 —— 它不仅能帮我们筛选冗余特征、提升模 ...
2025-10-11在企业的数据体系中,未经分类的数据如同 “杂乱无章的仓库”—— 用户行为日志、订单记录、商品信息混杂存储,CDA(Certified D ...
2025-10-11在 SQL Server 数据库操作中,“数据类型转换” 是高频需求 —— 无论是将字符串格式的日期转为datetime用于筛选,还是将数值转 ...
2025-10-10在科研攻关、工业优化、产品开发中,正交试验(Orthogonal Experiment)因 “用少量试验覆盖多因素多水平组合” 的高效性,成为 ...
2025-10-10在企业数据量从 “GB 级” 迈向 “PB 级” 的过程中,“数据混乱” 的痛点逐渐从 “隐性问题” 变为 “显性瓶颈”:各部门数据口 ...
2025-10-10在深度学习中,“模型如何从错误中学习” 是最关键的问题 —— 而损失函数与反向传播正是回答这一问题的核心技术:损失函数负责 ...
2025-10-09本文将从 “检验本质” 切入,拆解两种方法的核心适用条件、场景边界与实战选择逻辑,结合医学、工业、教育领域的案例,让你明确 ...
2025-10-09在 CDA 数据分析师的日常工作中,常会遇到这样的困惑:某电商平台 11 月 GMV 同比增长 20%,但究竟是 “长期趋势自然增长”,还 ...
2025-10-09Pandas 选取特定值所在行:6 类核心方法与实战指南 在使用 pandas 处理结构化数据时,“选取特定值所在的行” 是最高频的操作之 ...
2025-09-30球面卷积神经网络(SCNN) 为解决这一痛点,球面卷积神经网络(Spherical Convolutional Neural Network, SCNN) 应运而生。它通 ...
2025-09-30