京公网安备 11010802034615号
经营许可证编号:京B2-20210330
股票量化投资出现的主要原因分析
量化交易的出现离不开如下几个主要原因:现代金融理论的发展,计算机技术的普及和发展,以及交易成本的下降。而这些变化大部分都发生在最近30年内。
1、现代金融理论的发展
传统资产定价的理论框架:
传统资产定价主要基于现金流贴现法。企业的整体价值等于其股票和债券的价值之和。股票的价值等于其未来所有现金流的折现值,债券的价值则等于利息与到期本金 的折现价值。
以股息贴现模型(DDM)为例,计算一个公司股价,我们需要预测该公司将来派发的一系列股息,然后估算每年的折现率,把未来股息贴现成现值, 最后把净现值的全相加起来。这个方法听起来很简单,但实际操作起来相当复杂而且带有主观性。分析师预测一个季度的股息都经常搞错,准确预测将来所有股息更 是难上加难。预测未来折现率也有同样的问题。现代金融理论则另辟蹊径。
1960年代,威廉·夏普、林特纳等提出的CAPM定价模型,对资本市场均衡状态下的资产风险与预期收益率的关系给出了精确定义。根据CAPM模型,一个股票的预期收益率取决于它和市场的相关性(beta)和无风险利率(risk- freerate)。投资者不用复杂的现金流预测就能估算股票的价值。
马克维茨(HarryMarkowitz)在50年代创造性地提出了用均值方差最优 化的数学方法来选择最优投资组合。这个最优组合不再完全取决于一个股票的预期收益率,而且还和其风险,与其它股票的相关性,以及投资者对风险的喜好程度密 切相关。夏普和马克维茨因此研究同获1990年诺贝尔经济学奖。
现代金融理论对传统理论的主要推动作用包括:
a. CAPM等金融定价模型可以很快给成百上千股票估算预期收益率,而传统办法更费时费力;当然,传统方法准确度一般而言比较高。
b. 现代金融理论更强调风险对收益率的影响。最优投资组合往往投资于大量股票以降低组合风险,而传统投资往往只集中于几个或几十个预期回报率最高的股票,组合 波动率往往更高。我们可以举个简单例子看看风险对收益率的影响。假设有两个投资策略,策略A一天赚10%下一天赔5%,策略A一天赚6%下一天赔1%。这 两个策略赔和赚的概率都是50%,而且每天平均收益率都是2.5%,但是B的波动率要小得多。投资200天之后策略A复合收益率为81.6,策略B的收益 率为124.2,比A高50+%。
c.跳过了复杂易错的现金流预测模型。传统投资模型试图用严密的数学理论给资产定价,却忽视了现金流折现 模型中每个参数的估计都具有很大的随机性。参数估计一点小小的变化往往对最后的估值产生巨大的影响。两千年前的毕达哥拉斯曾经说过,上帝用数学法则创造了 世界。现代科学的发展却越来越发现其实完全确定的事物只是世界的一小部分。也许更精确的说法是:上帝用概率法则创造了世界,尤其是对于与人类行为有关的事物。
当然,这并不是说现代金融理论就一定强于传统理论。传统投资因为对个股分析更为透彻因此投资命中率hitrate更高。基于CAPM等 数学模型赚钱的方式不同。量化交易往往在短期内作出大量的交易。每一个交易的亏赢率虽然小于传统投资模型,但数千次交易之后,只要盈利交易多于亏损交易, 总体交易结果就是盈利的。
2、互联网兴起,计算机和金融的紧密联系
在过去的半个世纪里,计算机基本按照英特尔(Intel)的创始人之一戈登· 摩尔提出摩尔定律飞速发展:计算机硬件的处理速度和存储能力,每一到两年提升一倍。
2016年5月,《机构投资者》旗下出版物《阿尔法》公布的“2016年全球收入最高的对冲基金经理”排行榜显示,前十位收入最高的对冲基金经理中,有八位被归为量化基金经理,前25位有一半属于量化分析。这些当中没有一家基金公司参与因子投资,或者叫做smart beta投资,也没有一家基金应用了诺贝尔经济学家创造的理论。相反,这些上榜的基金依赖的是数学与计算机技术的结合。
计算机的兴起使得量化交易能够利用计算机技术来进行交易的证券投资方式。从庞大的历史数据中海选能带来超额收益的多种“大概 率”事件以制定策略,用数量模型验证及固化这些规律和策略,然后严格执行已固化的策略来指导投资,以求获得可以持续的、稳定且高于平均收益的超额回报。
3、交易费用的下降
全球范围内交易费用的下降已经持续了一段时间,在金融市场竞争的推动下,又开始出现继续下降的趋势。
以上三点是便是推动量化投资出现的主要原因。如今已是量化交易的天下,运用数学或者统计模型来模拟金融市场的未来走向,从而预估金融产品的潜在收益,这已经成为了投资界的“时尚”。所以,想要在投资领域大放异彩,除了掌握传统的金融理论,数学和计算机技术也是必不可少。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27在数字化时代,企业积累的海量数据如同散落的珍珠,若缺乏有效的梳理与分类,终将难以发挥实际价值。CDA(Certified Data Analys ...
2026-02-27在问卷调研中,我们常遇到这样的场景:针对同一批调查对象,在不同时间点(如干预前、干预后、随访期)发放相同或相似的问卷,收 ...
2026-02-26在销售管理的实操场景中,“销售机会”是核心抓手—— 从潜在客户接触到最终成交,每一个环节都藏着业绩增长的关键,也暗藏着客 ...
2026-02-26在CDA数据分析师的日常工作中,数据提取、整理、加工是所有分析工作的起点,而“创建表”与“创建视图”,则是数据库操作中最基 ...
2026-02-26在机器学习分析、数据决策的全流程中,“数据质量决定分析价值”早已成为行业共识—— 正如我们此前在运用机器学习进行分析时强 ...
2026-02-25在数字化时代,数据已成为企业决策、行业升级的核心资产,但海量杂乱的原始数据本身不具备价值—— 只有通过科学的分析方法,挖 ...
2026-02-25