京公网安备 11010802034615号
经营许可证编号:京B2-20210330
写量化策略时常用的技巧
1.善用panel保存数据
说明:pandas有三种数据结构,分别是Series(一维),DataFrame(二维),panel(三维)
例子:沪深300成分股所有股票[stock list]在某些特征指标如成交量、收盘价[indicator list]上的某时间区间内的历史序列[time series],
[stock list] * [indicator list] * [time series]=3维
Q:如何通过Windpy接口来形成我们的三维面板数据呢?
A:按个股循环,获取每只股票的序列数据(二维);再把300只个股合并成三维。
例代码1:获取面板原始数据(daily),后期再在这张大的面板数据上计算月度的情况,再排序形成组合。再形成一个新的面板。【思路:总-分-总】
ps1:缺点就是从总表中拆开按每个因子形成月度收益再concat合并,这个过程很麻烦,不如一开始就按因子分开处理好,再合并形成面板数据。

ps2:wind API每天12000条左右的记录限制,意味着300只股票,每天只能他爸爸的获取30天的数据,10年的数据(120个月)得花120天来下载,这很坑啊。。。肯定是要另外想办法的,平时写策略主要目的是训练思路和练手,对数据质量要求不太高,目前看来,聚宽是最好的选择,策略编写平台类似jupyter notebook,也支持python的所有package。
import pandas as pd
import copy
from WindPy import w
import datetime
w.start()
## 函数getAsharePanels(),获取A股历史面板数据
def getAsharePanels(stockcodes,start_date,end_date):
append_data=pd.DataFrame(columns=['trade_date','stock_code','open','high','low','close','volume']) #产生一个辅助数据集,帮助后面循环时汇总
individual_data=pd.DataFrame() #存放个股交易信息的数据集
result={} #result是一个三维的字典
for individual_stockcode in stockcodes:
# 依次生成个股数据集(变量包括:日期、代码、开盘价、最高价、最低价、收盘价、成交量)
stock=w.wsd(individual_stockcode, "trade_code,open,high,low,close,volume",start_date,end_date)
individual_data['trade_date']=stock.Times
individual_data['stock_code']=stock.Data[0]
individual_data['open']=stock.Data[1]
individual_data['high']=stock.Data[2]
individual_data['low']=stock.Data[3]
individual_data['close']=stock.Data[4]
individual_data['volume']=stock.Data[5]
# 通过300次迭代,把300只股票的df格式的individual_data数据放到result里,形成3维的字典
result[+1]=individual_data
rawdata = pd.Panel(result) #获取的沪深300成分股的3维数据保存在rawdata中
return rawdata
## 调用函数getAsharePanels(),获取A股历史面板数据
todayDate=datetime.datetime.strftime(datetime.date.today(),"%Y%m%d")
wsetdata=w.wset('SectorConstituent','date='+todayDate+';sectorId=1000000090000000;field=wind_code') #通过wset获取沪深300成分股代码
stockcodes=list(wsetdata.Data[0])
start_date='20120101' #样本数据起始日期
end_date='20171231' #样本数据结束日期
rawdata_panel=getAsharePanels(stockcodes,start_date,end_date)
例代码2:
【先分后合】
step1:
一维:先写好一系列函数,分开处理好各因子的历史序列数据(如:月度收益、排序形成portfolio等)
step2:写个两层的循环,把一维变成二维,再变成三维
二维(内层循环):再把一维按照因子类别作为二维的dataframe的列,以此思路来形成二维表,如:df[‘PE’]=seriesXXX
三维(外层循环):按monthly的时间来循环,把二维的截面数据加上时间维度,变成三维的,形成一张panel
Q:分开处理好数据以后,如何形成我们的三维面板数据呢?
A:最外层循环:按时间(换仓频率一般是月度)
最内层循环:调用windpy接口获取每只股票的所有因子的截面数据,按股票代码循环(成交等、价格等)
## 函数1:计算组合的月度收益率
def caculate_port_monthly_return(port,startdate,enddate,nextdate,CMV):
close1 = get_price(port, startdate, enddate, 'daily', ['close']) #三维面板数据
close2 = get_price(port, enddate, nextdate, 'daily',['close']) #面板数据
weighted_m_return = ((close2['close'].ix[0,:]/close1['close'].ix[0,:]-1)).mean() #等权加权
return weighted_m_return
## 函数2:计算benchmark组合的月度收益
def caculate_benchmark_monthly_return(startdate,enddate,nextdate):
close1 = get_price(['000001.XSHG'],startdate,enddate,'daily',['close'])['close']
#二维
close2 = get_price(['000001.XSHG'],enddate, nextdate, 'daily',['close'])['close']
benchmark_return = (close2.ix[0,:]/close1.ix[0,:]-1).sum()
print close1
return benchmark_return
## 核心策略:构建因子组合并计算每月换仓时不同组合的月收益率
# 得到结果monthly_return为panel数据,储存所有因子,在7×12个月内5个组合及benchmark的月收益率
factors = ['B/M','EPS','PEG','ROE','ROA','GP/R','P/R','L/A','FAP','CMV']
#因为研究模块取fundmental数据默认date为研究日期的前一天。所以要自备时间序列。按月取
year = ['2011','2012','2013','2014','2015','2016','2017']
month = ['01','02','03','04','05','06','07','08','09','10','11','12']
result = {}
for i in range(7*12):
startdate = year[i/12] + '-' + month[i%12] + '-01'
try:
enddate = year[(i+1)/12] + '-' + month[(i+1)%12] + '-01'
except IndexError:
enddate = '2016-01-01'
try:
nextdate = year[(i+2)/12] + '-' + month[(i+2)%12] + '-01'
except IndexError:
if enddate == '2018-01-01':
nextdate = '2018-02-01'
else:
nextdate = '2018-01-01'
#print 'time %s'%startdate
fdf = get_factors(startdate,factors)
CMV = fdf['CMV']
#5个组合,10个因子
df = DataFrame(np.zeros(6*10).reshape(6,10),index = ['port1','port2','port3','port4','port5','benchmark'],columns = factors)
for fac in factors:
score = fdf[fac].order()
port1 = list(score.index)[: len(score)/5]
port2 = list(score.index)[ len(score)/5+1: 2*len(score)/5]
port3 = list(score.index)[ 2*len(score)/5+1: -2*len(score)/5]
port4 = list(score.index)[ -2*len(score)/5+1: -len(score)/5]
port5 = list(score.index)[ -len(score)/5+1: ]
df.ix['port1',fac] = caculate_port_monthly_return(port1,startdate,enddate,nextdate,CMV)
df.ix['port2',fac] = caculate_port_monthly_return(port2,startdate,enddate,nextdate,CMV)
df.ix['port3',fac] = caculate_port_monthly_return(port3,startdate,enddate,nextdate,CMV)
df.ix['port4',fac] = caculate_port_monthly_return(port4,startdate,enddate,nextdate,CMV)
df.ix['port5',fac] = caculate_port_monthly_return(port5,startdate,enddate,nextdate,CMV)
df.ix['benchmark',fac] = caculate_benchmark_monthly_return(startdate,enddate,nextdate)
#print 'factor %s'%faesult[i+1]=df
monthly_return = pd.Panel(result)
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在神经网络模型搭建中,“最后一层是否添加激活函数”是新手常困惑的关键问题——有人照搬中间层的ReLU激活,导致回归任务输出异 ...
2025-12-05在机器学习落地过程中,“模型准确率高但不可解释”“面对数据噪声就失效”是两大核心痛点——金融风控模型若无法解释决策依据, ...
2025-12-05在CDA(Certified Data Analyst)数据分析师的能力模型中,“指标计算”是基础技能,而“指标体系搭建”则是区分新手与资深分析 ...
2025-12-05在回归分析的结果解读中,R方(决定系数)是衡量模型拟合效果的核心指标——它代表因变量的变异中能被自变量解释的比例,取值通 ...
2025-12-04在城市规划、物流配送、文旅分析等场景中,经纬度热力图是解读空间数据的核心工具——它能将零散的GPS坐标(如外卖订单地址、景 ...
2025-12-04在CDA(Certified Data Analyst)数据分析师的指标体系中,“通用指标”与“场景指标”并非相互割裂的两个部分,而是支撑业务分 ...
2025-12-04每到“双十一”,电商平台的销售额会迎来爆发式增长;每逢冬季,北方的天然气消耗量会显著上升;每月的10号左右,工资发放会带动 ...
2025-12-03随着数字化转型的深入,企业面临的数据量呈指数级增长——电商的用户行为日志、物联网的传感器数据、社交平台的图文视频等,这些 ...
2025-12-03在CDA(Certified Data Analyst)数据分析师的工作体系中,“指标”是贯穿始终的核心载体——从“销售额环比增长15%”的业务结论 ...
2025-12-03在神经网络训练中,损失函数的数值变化常被视为模型训练效果的“核心仪表盘”——初学者盯着屏幕上不断下降的损失值满心欢喜,却 ...
2025-12-02在CDA(Certified Data Analyst)数据分析师的日常工作中,“用部分数据推断整体情况”是高频需求——从10万条订单样本中判断全 ...
2025-12-02在数据预处理的纲量统一环节,标准化是消除量纲影响的核心手段——它将不同量级的特征(如“用户年龄”“消费金额”)转化为同一 ...
2025-12-02在数据驱动决策成为企业核心竞争力的今天,A/B测试已从“可选优化工具”升级为“必选验证体系”。它通过控制变量法构建“平行实 ...
2025-12-01在时间序列预测任务中,LSTM(长短期记忆网络)凭借对时序依赖关系的捕捉能力成为主流模型。但很多开发者在实操中会遇到困惑:用 ...
2025-12-01引言:数据时代的“透视镜”与“掘金者” 在数字经济浪潮下,数据已成为企业决策的核心资产,而CDA数据分析师正是挖掘数据价值的 ...
2025-12-01数据分析师的日常,常始于一堆“毫无章法”的数据点:电商后台导出的零散订单记录、APP埋点收集的无序用户行为日志、传感器实时 ...
2025-11-28在MySQL数据库运维中,“query end”是查询执行生命周期的收尾阶段,理论上耗时极短——主要完成结果集封装、资源释放、事务状态 ...
2025-11-28在CDA(Certified Data Analyst)数据分析师的工具包中,透视分析方法是处理表结构数据的“瑞士军刀”——无需复杂代码,仅通过 ...
2025-11-28在统计分析中,数据的分布形态是决定“用什么方法分析、信什么结果”的底层逻辑——它如同数据的“性格”,直接影响着描述统计的 ...
2025-11-27在电商订单查询、用户信息导出等业务场景中,技术人员常面临一个选择:是一次性查询500条数据,还是分5次每次查询100条?这个问 ...
2025-11-27