‘壹’ 谁有金融数据挖掘,关联规则分析与挖掘的一些介绍啊
雨林算法的数据结构:
AVC-set:节点n包含的所有纪录在某个属性上的投影,其中该AVC-set包括了属性的不同值在每个类别上的计数。
AVC-group:一个节点n上所有的AVC -set的集合
AVC-set的所占内存的大小正比于对应属性的不同值个数,AVC-group并不是数据库信息的简单的压缩,它只是提供了建立决策树需要的信息, AVC-group所占用的内存空间远远小于数据库所实际占用的空间。
一般设计方案:
AVC_set
{
//存储属性的各个值
DistinctValue[]
//存储属性各个值在某个类上对应的计数
DistinctValueCountForClassA[]
DistinctValueCountForClassB[]
… …
}
AVC_group
{
//节点n中的每个属性的avc_set
AVC_set[]
}
自顶向下决策树算法
BuildTree(Node m,datapatition D,algorithm decisionTree)
对D使用决策树算法decisionTree得到分裂指标crit(n)
令k为节点n的子节点个数
if(k>0)
建立n的k个子节点c1,…,ck
使用最佳分割将D分裂为D1,…,Dk
for(i=1;i<=k;i++)
BuildTree(ci,Di)
endfor
endif
RainForest 算法框架重新定义的部分:
1a) for 每一个属性的谓词p,寻找最佳的分割
1b) decisionTree.find_best_partitioning(AVC-set of p)
1c) endfor
2a) k= decisionTree.decide_splitting_criterion();//决定最终的分割
雨林算法的常规过程:
建立节点的AVC-group
(通过读取整个原始数据库或者某个分支的数据库表或文件)
选择分裂属性和分裂标准:取决于使用雨林算法框架的具体算法,通过逐一检查AVC-set来选择。
将数据分解到各个子节点:必须读取整个数据集(数据库或文件),将各条数据分解到各个子节点中,此时如果有足够的内存,我们将建立一个或多个子节点的AVC-group
参考资料:李岱 rainforest.ppt 什么是数据挖掘
数据挖掘(Data Mining),又称为数据库中的知识发现(Knowledge Discovery in Database, KDD),就是从大量数据中获取有效的、新颖的、潜在有用的、最终可理解的模式的非平凡过程,简单的说,数据挖掘就是从大量数据中提取或“挖掘”知识。
并非所有的信息发现任务都被视为数据挖掘。例如,使用数据库管理系统查找个别的记录,或通过因特网的搜索引擎查找特定的Web页面,则是信息检索(information retrieval)领域的任务。虽然这些任务是重要的,可能涉及使用复杂的算法和数据结构,但是它们主要依赖传统的计算机科学技术和数据的明显特征来创建索引结构,从而有效地组织和检索信息。尽管如此,数据挖掘技术也已用来增强信息检索系统的能力。
编辑本段数据挖掘的起源
为迎接前一节中的这些挑战,来自不同学科的研究者汇集到一起,开始着手开发可以处理不同数据类型的更有效的、可伸缩的工具。这些工作建立在研究者先前使用的方法学和算法之上,在数据挖掘领域达到高潮。特别地是,数据挖掘利用了来自如下一些领域的思想:(1) 来自统计学的抽样、估计和假设检验,(2) 人工智能、模式识别和机器学习的搜索算法、建模技术和学习理论。数据挖掘也迅速地接纳了来自其他领域的思想,这些领域包括最优化、进化计算、信息论、信号处理、可视化和信息检索。
一些其他领域也起到重要的支撑作用。特别地,需要数据库系统提供有效的存储、索引和查询处理支持。源于高性能(并行)计算的技术在处理海量数据集方面常常是重要的。分布式技术也能帮助处理海量数据,并且当数据不能集中到一起处理时更是至关重要。
编辑本段数据挖掘能做什么
1)数据挖掘能做以下六种不同事情(分析方法):
· 分类 (Classification)
· 估值(Estimation)
· 预言(Prediction)
· 相关性分组或关联规则(Affinity grouping or association rules)
· 聚集(Clustering)
· 描述和可视化(Des cription and Visualization)
· 复杂数据类型挖掘(Text, Web ,图形图像,视频,音频等)
2)数据挖掘分类
以上六种数据挖掘的分析方法可以分为两类:直接数据挖掘;间接数据挖掘
· 直接数据挖掘
目标是利用可用的数据建立一个模型,这个模型对剩余的数据,对一个特定的变量(可以理解成数据库中表的属性,即列)进行描述。
· 间接数据挖掘
目标中没有选出某一具体的变量,用模型进行描述;而是在所有的变量中建立起某种关系 。
· 分类、估值、预言属于直接数据挖掘;后三种属于间接数据挖掘
3)各种分析方法的简介
· 分类 (Classification)
首先从数据中选出已经分好类的训练集,在该训练集上运用数据挖掘分类的技术,建立分类模型,对于没有分类的数据进行分类。
例子:
a. 信用卡申请者,分类为低、中、高风险
b. 分配客户到预先定义的客户分片
注意: 类的个数是确定的,预先定义好的
· 估值(Estimation)
估值与分类类似,不同之处在于,分类描述的是离散型变量的输出,而估值处理连续值的输出;分类的类别是确定数目的,估值的量是不确定的。
例子:
a. 根据购买模式,估计一个家庭的孩子个数
b. 根据购买模式,估计一个家庭的收入
c. 估计real estate的价值
一般来说,估值可以作为分类的前一步工作。给定一些输入数据,通过估值,得到未知的连续变量的值,然后,根据预先设定的阈值,进行分类。例如:银行对家庭贷款业务,运用估值,给各个客户记分(Score 0~1)。然后,根据阈值,将贷款级别分类。
· 预言(Prediction)
通常,预言是通过分类或估值起作用的,也就是说,通过分类或估值得出模型,该模型用于对未知变量的预言。从这种意义上说,预言其实没有必要分为一个单独的类。预言其目的是对未来未知变量的预测,这种预测是需要时间来验证的,即必须经过一定时间后,才知道预言准确性是多少。
· 相关性分组或关联规则(Affinity grouping or association rules)
决定哪些事情将一起发生。
例子:
a. 超市中客户在购买A的同时,经常会购买B,即A => B(关联规则)
b. 客户在购买A后,隔一段时间,会购买B (序列分析)
· 聚集(Clustering)
聚集是对记录分组,把相似的记录在一个聚集里。聚集和分类的区别是聚集不依赖于预先定义好的类,不需要训练集。
例子:
a. 一些特定症状的聚集可能预示了一个特定的疾病
b. 租VCD类型不相似的客户聚集,可能暗示成员属于不同的亚文化群
聚集通常作为数据挖掘的第一步。例如,"哪一种类的促销对客户响应最好?",对于这一 类问题,首先对整个客户做聚集,将客户分组在各自的聚集里,然后对每个不同的聚集,回答问题,可能效果更好。
· 描述和可视化(Des cription and Visualization)
是对数据挖掘结果的表示方式。
编辑本段数据挖掘中的关联规则上面算法讲的很清楚了,我来举个例子:
Training data:
Id age income class
1 young 65 G
2 young 15 B
3 young 75 G
4 senior 40 B
5 senior 100 G
6 senior 60 G
AVC set „age“ for N1:
value class count
young B 1
young G 2
senior B 1
senior G 2
AVC set „income“ for N1:
value class count
15 B 1
40 B 1
60 G 1
65 G 1
75 G 1
100 G 1
AVC set „income“ for N2:
value class count
15 B 1
65 G 1
75 G 1
AVC set „age“ for N2:
value class count
young B 1
young G 2
最后推出雨林: N1
age=young / \ age=senior
/ \
N2 N3
最后提醒一点,对于雨林算法,训练样本集不要大于3百万。否则改用SPRINT。
1.什么是关联规则
在描述有关关联规则的一些细节之前,我们先来看一个有趣的故事: "尿布与啤酒"的故事。
在一家超市里,有一个有趣的现象:尿布和啤酒赫然摆在一起出售。但是这个奇怪的举措却使尿布和啤酒的销量双双增加了。这不是一个笑话,而是发生在美国沃尔玛连锁店超市的真实案例,并一直为商家所津津乐道。沃尔玛拥有世界上最大的数据仓库系统,为了能够准确了解顾客在其门店的购买习惯,沃尔玛对其顾客的购物行为进行购物篮分析,想知道顾客经常一起购买的商品有哪些。沃尔玛数据仓库里集中了其各门店的详细原始交易数据。在这些原始交易数据的基础上,沃尔玛利用数据挖掘方法对这些数据进行分析和挖掘。一个意外的发现是:"跟尿布一起购买最多的商品竟是啤酒!经过大量实际调查和分析,揭示了一个隐藏在"尿布与啤酒"背后的美国人的一种行为模式:在美国,一些年轻的父亲下班后经常要到超市去买婴儿尿布,而他们中有30%~40%的人同时也为自己买一些啤酒。产生这一现象的原因是:美国的太太们常叮嘱她们的丈夫下班后为小孩买尿布,而丈夫们在买尿布后又随手带回了他们喜欢的啤酒。
按常规思维,尿布与啤酒风马牛不相及,若不是借助数据挖掘技术对大量交易数据进行挖掘分析,沃尔玛是不可能发现数据内在这一有价值的规律的。
数据关联是数据库中存在的一类重要的可被发现的知识。若两个或多个变量的取值之间存在某种规律性,就称为关联。关联可分为简单关联、时序关联、因果关联。关联分析的目的是找出数据库中隐藏的关联网。有时并不知道数据库中数据的关联函数,即使知道也是不确定的,因此关联分析生成的规则带有可信度。关联规则挖掘发现大量数据中项集之间有趣的关联或相关联系。Agrawal等于1993年首先提出了挖掘顾客交易数据库中项集间的关联规则问题,以后诸多的研究人员对关联规则的挖掘问题进行了大量的研究。他们的工作包括对原有的算法进行优化,如引入随机采样、并行的思想等,以提高算法挖掘规则的效率;对关联规则的应用进行推广。关联规则挖掘在数据挖掘中是一个重要的课题,最近几年已被业界所广泛研究。
2.关联规则挖掘过程、分类及其相关算法
2.1关联规则挖掘的过程
关联规则挖掘过程主要包含两个阶段:第一阶段必须先从资料集合中找出所有的高频项目组(Frequent Itemsets),第二阶段再由这些高频项目组中产生关联规则(Association Rules)。
关联规则挖掘的第一阶段必须从原始资料集合中,找出所有高频项目组(Large Itemsets)。高频的意思是指某一项目组出现的频率相对于所有记录而言,必须达到某一水平。一项目组出现的频率称为支持度(Support),以一个包含A与B两个项目的2-itemset为例,我们可以经由公式(1)求得包含{A,B}项目组的支持度,若支持度大于等于所设定的最小支持度(Minimum Support)门槛值时,则{A,B}称为高频项目组。一个满足最小支持度的k-itemset,则称为高频k-项目组(Frequent k-itemset),一般表示为Large k或Frequent k。算法并从Large k的项目组中再产生Large k+1,直到无法再找到更长的高频项目组为止。
关联规则挖掘的第二阶段是要产生关联规则(Association Rules)。从高频项目组产生关联规则,是利用前一步骤的高频k-项目组来产生规则,在最小信赖度(Minimum Confidence)的条件门槛下,若一规则所求得的信赖度满足最小信赖度,称此规则为关联规则。例如:经由高频k-项目组{A,B}所产生的规则AB,其信赖度可经由公式(2)求得,若信赖度大于等于最小信赖度,则称AB为关联规则。
就沃尔马案例而言,使用关联规则挖掘技术,对交易资料库中的纪录进行资料挖掘,首先必须要设定最小支持度与最小信赖度两个门槛值,在此假设最小支持度min_support=5% 且最小信赖度min_confidence=70%。因此符合此该超市需求的关联规则将必须同时满足以上两个条件。若经过挖掘过程所找到的关联规则“尿布,啤酒”,满足下列条件,将可接受“尿布,啤酒”的关联规则。用公式可以描述Support(尿布,啤酒)>=5%且Confidence(尿布,啤酒)>=70%。其中,Support(尿布,啤酒)>=5%于此应用范例中的意义为:在所有的交易纪录资料中,至少有5%的交易呈现尿布与啤酒这两项商品被同时购买的交易行为。Confidence(尿布,啤酒)>=70%于此应用范例中的意义为:在所有包含尿布的交易纪录资料中,至少有70%的交易会同时购买啤酒。因此,今后若有某消费者出现购买尿布的行为,超市将可推荐该消费者同时购买啤酒。这个商品推荐的行为则是根据“尿布,啤酒”关联规则,因为就该超市过去的交易纪录而言,支持了“大部份购买尿布的交易,会同时购买啤酒”的消费行为。
从上面的介绍还可以看出,关联规则挖掘通常比较适用与记录中的指标取离散值的情况。如果原始数据库中的指标值是取连续的数据,则在关联规则挖掘之前应该进行适当的数据离散化(实际上就是将某个区间的值对应于某个值),数据的离散化是数据挖掘前的重要环节,离散化的过程是否合理将直接影响关联规则的挖掘结果。
2.2关联规则的分类
按照不同情况,关联规则可以进行分类如下:
1.基于规则中处理的变量的类别,关联规则可以分为布尔型和数值型。
布尔型关联规则处理的值都是离散的、种类化的,它显示了这些变量之间的关系;而数值型关联规则可以和多维关联或多层关联规则结合起来,对数值型字段进行处理,将其进行动态的分割,或者直接对原始的数据进行处理,当然数值型关联规则中也可以包含种类变量。例如:性别=“女”=>职业=“秘书” ,是布尔型关联规则;性别=“女”=>avg(收入)=2300,涉及的收入是数值类型,所以是一个数值型关联规则。
2.基于规则中数据的抽象层次,可以分为单层关联规则和多层关联规则。
在单层的关联规则中,所有的变量都没有考虑到现实的数据是具有多个不同的层次的;而在多层的关联规则中,对数据的多层性已经进行了充分的考虑。例如:IBM台式机=>Sony打印机,是一个细节数据上的单层关联规则;台式机=>Sony打印机,是一个较高层次和细节层次之间的多层关联规则。
3.基于规则中涉及到的数据的维数,关联规则可以分为单维的和多维的。
在单维的关联规则中,我们只涉及到数据的一个维,如用户购买的物品;而在多维的关联规则中,要处理的数据将会涉及多个维。换成另一句话,单维关联规则是处理单个属性中的一些关系;多维关联规则是处理各个属性之间的某些关系。例如:啤酒=>尿布,这条规则只涉及到用户的购买的物品;性别=“女”=>职业=“秘书”,这条规则就涉及到两个字段的信息,是两个维上的一条关联规则。
2.3关联规则挖掘的相关算法
1.Apriori算法:使用候选项集找频繁项集
Apriori算法是一种最有影响的挖掘布尔关联规则频繁项集的算法。其核心是基于两阶段频集思想的递推算法。该关联规则在分类上属于单维、单层、布尔关联规则。在这里,所有支持度大于最小支持度的项集称为频繁项集,简称频集。
该算法的基本思想是:首先找出所有的频集,这些项集出现的频繁性至少和预定义的最小支持度一样。然后由频集产生强关联规则,这些规则必须满足最小支持度和最小可信度。然后使用第1步找到的频集产生期望的规则,产生只包含集合的项的所有规则,其中每一条规则的右部只有一项,这里采用的是中规则的定义。一旦这些规则被生成,那么只有那些大于用户给定的最小可信度的规则才被留下来。为了生成所有频集,使用了递推的方法。
可能产生大量的候选集,以及可能需要重复扫描数据库,是Apriori算法的两大缺点。
2.基于划分的算法
Savasere等设计了一个基于划分的算法。这个算法先把数据库从逻辑上分成几个互不相交的块,每次单独考虑一个分块并对它生成所有的频集,然后把产生的频集合并,用来生成所有可能的频集,最后计算这些项集的支持度。这里分块的大小选择要使得每个分块可以被放入主存,每个阶段只需被扫描一次。而算法的正确性是由每一个可能的频集至少在某一个分块中是频集保证的。该算法是可以高度并行的,可以把每一分块分别分配给某一个处理器生成频集。产生频集的每一个循环结束后,处理器之间进行通信来产生全局的候选k-项集。通常这里的通信过程是算法执行时间的主要瓶颈;而另一方面,每个独立的处理器生成频集的时间也是一个瓶颈。
3.FP-树频集算法
针对Apriori算法的固有缺陷,J. Han等提出了不产生候选挖掘频繁项集的方法:FP-树频集算法。采用分而治之的策略,在经过第一遍扫描之后,把数据库中的频集压缩进一棵频繁模式树(FP-tree),同时依然保留其中的关联信息,随后再将FP-tree分化成一些条件库,每个库和一个长度为1的频集相关,然后再对这些条件库分别进行挖掘。当原始数据量很大的时候,也可以结合划分的方法,使得一个FP-tree可以放入主存中。实验表明,FP-growth对不同长度的规则都有很好的适应性,同时在效率上较之Apriori算法有巨大的提高。
3.该领域在国内外的应用
3.1关联规则发掘技术在国内外的应用
就目前而言,关联规则挖掘技术已经被广泛应用在西方金融行业企业中,它可以成功预测银行客户需求。一旦获得了这些信息,银行就可以改善自身营销。现在银行天天都在开发新的沟通客户的方法。各银行在自己的ATM机上就捆绑了顾客可能感兴趣的本行产品信息,供使用本行ATM机的用户了解。如果数据库中显示,某个高信用限额的客户更换了地址,这个客户很有可能新近购买了一栋更大的住宅,因此会有可能需要更高信用限额,更高端的新信用卡,或者需要一个住房改善贷款,这些产品都可以通过信用卡账单邮寄给客户。当客户打电话咨询的时候,数据库可以有力地帮助电话销售代表。销售代表的电脑屏幕上可以显示出客户的特点,同时也可以显示出顾客会对什么产品感兴趣。
同时,一些知名的电子商务站点也从强大的关联规则挖掘中的受益。这些电子购物网站使用关联规则中规则进行挖掘,然后设置用户有意要一起购买的捆绑包。也有一些购物网站使用它们设置相应的交叉销售,也就是购买某种商品的顾客会看到相关的另外一种商品的广告。
但是目前在我国,“数据海量,信息缺乏”是商业银行在数据大集中之后普遍所面对的尴尬。目前金融业实施的大多数数据库只能实现数据的录入、查询、统计等较低层次的功能,却无法发现数据中存在的各种有用的信息,譬如对这些数据进行分析,发现其数据模式及特征,然后可能发现某个客户、消费群体或组织的金融和商业兴趣,并可观察金融市场的变化趋势。可以说,关联规则挖掘的技术在我国的研究与应用并不是很广泛深入。
3.2近年来关联规则发掘技术的一些研究
由于许多应用问题往往比超市购买问题更复杂,大量研究从不同的角度对关联规则做了扩展,将更多的因素集成到关联规则挖掘方法之中,以此丰富关联规则的应用领域,拓宽支持管理决策的范围。如考虑属性之间的类别层次关系,时态关系,多表挖掘等。近年来围绕关联规则的研究主要集中于两个方面,即扩展经典关联规则能够解决问题的范围,改善经典关联规则挖掘算法效率和规则兴趣性。
编辑本段数据挖掘技术实现
在技术上可以根据它的工作过程分为:数据的抽取、数据的存储和管理、数据的展现等关键技术。
·数据的抽取
数据的抽取是数据进入仓库的入口。由于数据仓库是一个独立的数据环境,它需要通过抽取过程将数据从联机事务处理系统、外部数据源、脱机的数据存储介质中导入数据仓库。数据抽取在技术上主要涉及互连、复制、增量、转换、调度和监控等几个方面的处理。在数据抽取方面,未来的技术发展将集中在系统功能集成化方面,以适应数据仓库本身或数据源的变化,使系统更便于管理和维护。
·数据的存储和管理
数据仓库的组织管理方式决定了它有别于传统数据库的特性,也决定了其对外部数据的表现形式。数据仓库管理所涉及的数据量比传统事务处理大得多,且随时间的推移而快速累积。在数据仓库的数据存储和管理中需要解决的是如何管理大量的数据、如何并行处理大量的数据、如何优化查询等。目前,许多数据库厂家提供的技术解决方案是扩展关系型数据库的功能,将普通关系数据库改造成适合担当数据仓库的服务器。
·数据的展现
在数据展现方面主要的方式有:
查询:实现预定义查询、动态查询、OLAP查询与决策支持智能查询;报表:产生关系数据表格、复杂表格、OLAP表格、报告以及各种综合报表;可视化:用易于理解的点线图、直方图、饼图、网状图、交互式可视化、动态模拟、计算机动画技术表现复杂数据及其相互关系;统计:进行平均值、最大值、最小值、期望、方差、汇总、排序等各种统计分析;挖掘:利用数据挖掘等方法,从数据中得到关于数据关系和模式的知识。
编辑本段数据挖掘与数据仓库融合发展
数据挖掘和数据仓库的协同工作,一方面,可以迎合和简化数据挖掘过程中的重要步骤,提高数据挖掘的效率和能力,确保数据挖掘中数据来源的广泛性和完整性。另一方面,数据挖掘技术已经成为数据仓库应用中极为重要和相对独立的方面和工具。
数据挖掘和数据仓库是融合与互动发展的,其学术研究价值和应用研究前景将是令人振奋的。它是数据挖掘专家、数据仓库技术人员和行业专家共同努力的成果,更是广大渴望从数据库“奴隶”到数据库“主人”转变的企业最终用户的通途。
统计学与数据挖掘
统计学和数据挖掘有着共同的目标:发现数据中的结构。事实上,由于它们的目标相似,一些人(尤其是统计学家)认为数据挖掘是统计学的分支。这是一个不切合实际的看法。因为数据挖掘还应用了其它领域的思想、工具和方法,尤其是计算机学科,例如数据库技术和机器学习,而且它所关注的某些领域和统计学家所关注的有很大不同。
1.统计学的性质
试图为统计学下一个太宽泛的定义是没有意义的。尽管可能做到,但会引来很多异议。相反,我要关注统计学不同于数据挖掘的特性。
差异之一同上节中最后一段提到的相关,即统计学是一门比较保守的学科,目前有一种趋势是越来越精确。当然,这本身并不是坏事,只有越精确才能避免错误,发现真理。但是如果过度的话则是有害的。这个保守的观点源于统计学是数学的分支这样一个看法,我是不同意这个观点的,尽管统计学确实以数学为基础(正如物理和工程也以数学为基础,但没有被认为是数学的分支),但它同其它学科还有紧密的联系。
数学背景和追求精确加强了这样一个趋势:在采用一个方法之前先要证明,而不是象计算机 这
‘贰’ 如何进行大数据分析及处理
1.可视化分析
大数据分析的使用者有大数据分析专家,同时还有普通用户,但是他们二者对于大数据分析最基本的要求就是可视化分析,因为可视化分析能够直观的呈现大数据特点,同时能够非常容易被读者所接受,就如同看图说话一样简单明了。
2. 数据挖掘算法
大数据分析的理论核心就是数据挖掘算法,各种数据挖掘的算法基于不同的数据类型和格式才能更加科学的呈现出数据本身具备的特点,也正是因为这些被全世界统计 学家所公认的各种统计方法(可以称之为真理)才能深入数据内部,挖掘出公认的价值。另外一个方面也是因为有这些数据挖掘的算法才能更快速的处理大数据,如果一个算法得花上好几年才能得出结论,那大数据的价值也就无从说起了。
3. 预测性分析大数据分析最终要的应用领域之一就是预测性分析,从大数据中挖掘出特点,通过科学的建立模型,之后便可以通过模型带入新的数据,从而预测未来的数据。
4. 语义引擎
非结构化数据的多元化给数据分析带来新的挑战,我们需要一套工具系统的去分析,提炼数据。语义引擎需要设计到有足够的人工智能以足以从数据中主动地提取信息。
5.数据质量和数据管理。 大数据分析离不开数据质量和数据管理,高质量的数据和有效的数据管理,无论是在学术研究还是在商业应用领域,都能够保证分析结果的真实和有价值。
大数据分析的基础就是以上五个方面,当然更加深入大数据分析的话,还有很多很多更加有特点的、更加深入的、更加专业的大数据分析方法。
‘叁’ 如何用大数据炒股
我们如今生活在一个数据爆炸的世界里。网络每天响应超过60亿次的搜索请求,日处理数据超过100PB,相当于6000多座中国国家图书馆的书籍信息量总和。新浪微博每天都会发布上亿条微博。在荒无人烟的郊外,暗藏着无数大公司的信息存储中心,24小时夜以继日地运转着。
克托·迈尔-舍恩伯格在《大数据时代》一书中认为,大数据的核心就是预测,即只要数据丰富到一定程度,就可预测事情发生的可能性。例如,“从一个人乱穿马路时行进的轨迹和速度来看他能及时穿过马路的可能性”,或者通过一个人穿过马路的速度,预测车子何时应该减速从而让他及时穿过马路。
那么,如果把这种预测能力应用在股票投资上,又会如何?
目前,美国已经有许多对冲基金采用大数据技术进行投资,并且收获甚丰。中国的中证广发网络百发100指数基金(下称百发100),上线四个多月以来已上涨68%。
和传统量化投资类似,大数据投资也是依靠模型,但模型里的数据变量几何倍地增加了,在原有的金融结构化数据基础上,增加了社交言论、地理信息、卫星监测等非结构化数据,并且将这些非结构化数据进行量化,从而让模型可以吸收。
由于大数据模型对成本要求极高,业内人士认为,大数据将成为共享平台化的服务,数据和技术相当于食材和锅,基金经理和分析师可以通过平台制作自己的策略。
量化非结构数据
不要小看大数据的本领,正是这项刚刚兴起的技术已经创造了无数“未卜先知”的奇迹。
2014年,网络用大数据技术预测命中了全国18卷中12卷高考作文题目,被网友称为“神预测”。网络公司人士表示,在这个大数据池中,包含互联网积累的用户数据、历年的命题数据以及教育机构对出题方向作出的判断。
在2014年巴西世界杯比赛中,Google亦通过大数据技术成功预测了16强和8强名单。
从当年英格兰报社的信鸽、费城股票交易所的信号灯到报纸电话,再到如今的互联网、云计算、大数据,前沿技术迅速在投资领域落地。在股票策略中,大数据日益崭露头角。
做股票投资策略,需要的大数据可以分为结构化数据和非结构化数据。结构化数据,简单说就是“一堆数字”,通常包括传统量化分析中常用的CPI、PMI、市值、交易量等专业信息;非结构化数据就是社交文字、地理位置、用户行为等“还没有进行量化的信息”。
量化非结构化就是用深度模型替代简单线性模型的过程,其中所涉及的技术包括自然语言处理、语音识别、图像识别等。
金融大数据平台-通联数据CEO王政表示,通联数据采用的非结构化数据可以分为三类:第一类和人相关,包括社交言论、消费、去过的地点等;第二类与物相关,如通过正在行驶的船只和货车判断物联网情况;第三类则是卫星监测的环境信息,包括汽车流、港口装载量、新的建筑开工等情况。
卫星监测信息在美国已被投入使用,2014年Google斥资5亿美元收购了卫星公司Skybox,从而可以获得实施卫星监测信息。
结构化和非结构化数据也常常相互转化。“结构化和非结构化数据可以形象理解成把所有数据装在一个篮子里,根据应用策略不同相互转化。例如,在搜索频率调查中,用户搜索就是结构化数据;在金融策略分析中,用户搜索就是非结构化数据。”网络公司人士表示。
华尔街拿着丰厚薪水的分析师们还不知道,自己的雇主已经将大量资本投向了取代自己的机器。
2014年11月23日,高盛向Kensho公司投资1500万美元,以支持该公司的大数据平台建设。该平台很像iPhone里的Siri,可以快速整合海量数据进行分析,并且回答投资者提出的各种金融问题,例如“下月有飓风,将对美国建材板块造成什么影响?”
在Kensho处理的信息中,有80%是“非结构化”数据,例如政策文件、自然事件、地理环境、科技创新等。这类信息通常是电脑和模型难以消化的。因此,Kensho的CEO Daniel Nadler认为,华尔街过去是基于20%的信息做出100%的决策。
既然说到高盛,顺便提一下,这家华尔街老牌投行如今对大数据可谓青睐有加。除了Kensho,高盛还和Fortress信贷集团在两年前投资了8000万美元给小额融资平台On Deck Capital。这家公司的核心竞争力也是大数据,它利用大数据对中小企业进行分析,从而选出值得投资的企业并以很快的速度为之提供短期贷款。
捕捉市场情绪
上述诸多非结构化数据,归根结底是为了获得一个信息:市场情绪。
在采访中,2013年诺贝尔经济学奖得主罗伯特•席勒的观点被无数采访对象引述。可以说,大数据策略投资的创业者们无一不是席勒的信奉者。
席勒于上世纪80年代设计的投资模型至今仍被业内称道。在他的模型中,主要参考三个变量:投资项目计划的现金流、公司资本的估算成本、股票市场对投资的反应(市场情绪)。他认为,市场本身带有主观判断因素,投资者情绪会影响投资行为,而投资行为直接影响资产价格。
然而,在大数据技术诞生之前,市场情绪始终无法进行量化。
回顾人类股票投资发展史,其实就是将影响股价的因子不断量化的过程。
上世纪70年代以前,股票投资是一种定性的分析,没有数据应用,而是一门主观的艺术。随着电脑的普及,很多人开始研究驱动股价变化的规律,把传统基本面研究方法用模型代替,市盈率、市净率的概念诞生,量化投资由此兴起。
量化投资技术的兴起也带动了一批华尔街大鳄的诞生。例如,巴克莱全球投资者(BGI)在上世纪70年代就以其超越同行的电脑模型成为全球最大的基金管理公司;进入80年代,另一家基金公司文艺复兴(Renaissance)年均回报率在扣除管理费和投资收益分成等费用后仍高达34%,堪称当时最佳的对冲基金,之后十多年该基金资产亦十分稳定。
“从主观判断到量化投资,是从艺术转为科学的过程。”王政表示,上世纪70年代以前一个基本面研究员只能关注20只到50只股票,覆盖面很有限。有了量化模型就可以覆盖所有股票,这就是一个大的飞跃。此外,随着计算机处理能力的发展,信息的用量也有一个飞跃变化。过去看三个指标就够了,现在看的指标越来越多,做出的预测越来越准确。
随着21世纪的到来,量化投资又遇到了新的瓶颈,就是同质化竞争。各家机构的量化模型越来越趋同,导致投资结果同涨同跌。“能否在看到报表数据之前,用更大的数据寻找规律?”这是大数据策略创业者们试图解决的问题。
于是,量化投资的多米诺骨牌终于触碰到了席勒理论的第三层变量——市场情绪。
计算机通过分析新闻、研究报告、社交信息、搜索行为等,借助自然语言处理方法,提取有用的信息;而借助机器学习智能分析,过去量化投资只能覆盖几十个策略,大数据投资则可以覆盖成千上万个策略。
基于互联网搜索数据和社交行为的经济预测研究,已逐渐成为一个新的学术热点,并在经济、社会以及健康等领域的研究中取得了一定成果。在资本市场应用上,研究发现搜索数据可有效预测未来股市活跃度(以交易量指标衡量)及股价走势的变化。
海外就有学术研究指出,公司的名称或者相关关键词的搜索量,与该公司的股票交易量正相关。德国科学家Tobias Preis就进行了如此研究:Tobias利用谷歌搜索引擎和谷歌趋势(Google Trends),以美国标普500指数的500只股票为其样本,以2004年至2010年为观察区间,发现谷歌趋势数据的公司名称搜索量和对应股票的交易量,在每周一次的时间尺度上有高度关联性。也就是说,当某个公司名称在谷歌的搜索量活动增加时,无论股票的价格是上涨或者下跌,股票成交量与搜索量增加;反之亦然,搜索量下降,股票成交量下降。以标普500指数的样本股为基础,依据上述策略构建的模拟投资组合在六年的时间内获得了高达329%的累计收益。
在美国市场上,还有多家私募对冲基金利用Twitter和Facebook的社交数据作为反映投资者情绪和市场趋势的因子,构建对冲投资策略。利用互联网大数据进行投资策略和工具的开发已经成为世界金融投资领域的新热点。
保罗·霍丁管理的对冲基金Derwent成立于2011年5月,注册在开曼群岛,初始规模约为4000万美元, 2013年投资收益高达23.77%。该基金的投资标的包括流动性较好的股票及股票指数产品。
通联数据董事长肖风在《投资革命》中写道,Derwent的投资策略是通过实时跟踪Twitter用户的情绪,以此感知市场参与者的“贪婪与恐惧”,从而判断市场涨跌来获利。
在Derwent的网页上可以看到这样一句话:“用实时的社交媒体解码暗藏的交易机会。”保罗·霍丁在基金宣传册中表示:“多年以来,投资者已经普遍接受一种观点,即恐惧和贪婪是金融市场的驱动力。但是以前人们没有技术或数据来对人类情感进行量化。这是第四维。Derwent就是要通过即时关注Twitter中的公众情绪,指导投资。”
另一家位于美国加州的对冲基金MarketPsych与汤普森·路透合作提供了分布在119个国家不低于18864项独立指数,比如每分钟更新的心情状态(包括乐观、忧郁、快乐、害怕、生气,甚至还包括创新、诉讼及冲突情况等),而这些指数都是通过分析Twitter的数据文本,作为股市投资的信号。
此类基金还在不断涌现。金融危机后,几个台湾年轻人在波士顿组建了一家名为FlyBerry的对冲基金,口号是“Modeling the World(把世界建模)”。它的投资理念全部依托大数据技术,通过监测市场舆论和行为,对投资做出秒速判断。
关于社交媒体信息的量化应用,在股票投资之外的领域也很常见:Twitter自己也十分注重信息的开发挖掘,它与DataSift和Gnip两家公司达成了一项出售数据访问权限的协议,销售人们的想法、情绪和沟通数据,从而作为顾客的反馈意见汇总后对商业营销活动的效果进行判断。从事类似工作的公司还有DMetics,它通过对人们的购物行为进行分析,寻找影响消费者最终选择的细微原因。
回到股票世界,利用社交媒体信息做投资的公司还有StockTwits。打开这家网站,首先映入眼帘的宣传语是“看看投资者和交易员此刻正如何讨论你的股票”。正如其名,这家网站相当于“股票界的Twitter”,主要面向分析师、媒体和投资者。它通过机器和人工相结合的手段,将关于股票和市场的信息整理为140字以内的短消息供用户参考。
此外,StockTwits还整合了社交功能,并作为插件可以嵌入Twitter、Facebook和LinkedIn等主要社交平台,让人们可以轻易分享投资信息。
另一家公司Market Prophit也很有趣。这家网站的宣传语是“从社交媒体噪音中提炼市场信号”。和StockTwits相比,Market Prophit更加注重大数据的应用。它采用了先进的语义分析法,可以将Twitter里的金融对话量化为“-1(极度看空)”到“1(极度看多)”之间的投资建议。网站还根据语义量化,每天公布前十名和后十名的股票热度榜单。网站还设计了“热度地图”功能,根据投资者情绪和意见,按照不同板块,将板块内的个股按照颜色深浅进行标注,谁涨谁跌一目了然。
中国原创大数据指数
尽管大数据策略投资在美国貌似炙手可热,但事实上,其应用尚仅限于中小型对冲基金和创业平台公司。大数据策略投资第一次被大规模应用,应归于中国的百发100。
网络金融中心相关负责人表示,与欧美等成熟资本市场主要由理性机构投资者构成相比,东亚尤其是中国的股票类证券投资市场仍以散户为主,因此市场受投资者情绪和宏观政策性因素影响很大。而个人投资者行为可以更多地反映在互联网用户行为大数据上,从而为有效地预测市场情绪和趋势提供了可能。这也就是中国国内公募基金在应用互联网大数据投资方面比海外市场并不落后、甚至领先的原因。
百发100指数由网络、中证指数公司、广发基金联合研发推出,于2014年7月8日正式对市场发布,实盘运行以来一路上涨,涨幅超过60%。跟踪该指数的指数基金规模上限为30亿份,2014年9月17日正式获批,10月20日发行时一度创下26小时疯卖18亿份的“神话”。
外界都知道百发100是依托大数据的指数基金,但其背后的细节鲜为人知。
百发100数据层面的分析分为两个层面,即数据工厂的数据归集和数据处理系统的数据分析。其中数据工厂负责大数据的收集分析,例如将来源于互联网的非结构化数据进行指标化、产品化等数据量化过程;数据处理系统,可以在数据工厂递交的大数据中寻找相互统计关联,提取有效信息,最终应用于策略投资。
“其实百发100是在传统量化投资技术上融合了基于互联网大数据的市场走势和投资情绪判断。”业内人士概括道。
和传统量化投资类似,百发100对样本股的甄选要考虑财务因子、基本面因子和动量因子,包括净资产收益率(ROE)、资产收益率(ROA)、每股收益增长率(EPS)、流动负债比率、企业价值倍数(EV/EBITDA)、净利润同比增长率、股权集中度、自由流通市值以及最近一个月的个股价格收益率和波动率等。
此外,市场走势和投资情绪是在传统量化策略基础上的创新产物,也是百发100的核心竞争力。接近网络的人士称,市场情绪因子对百发100基金起决定性作用。
网络金融中心相关负责人是罗伯特•席勒观点的支持者。他认为,投资者行为和情绪对资产价格、市场走势有着巨大的影响。因此“通过互联网用户行为大数据反映的投资市场情绪、宏观经济预期和走势,成为百发100指数模型引入大数据因子的重点”。
传统量化投资主要着眼点在于对专业化金融市场基本面和交易数据的应用。但在网络金融中心相关业务负责人看来,无论是来源于专业金融市场的结构化数据,还是来源于互联网的非结构化数据,都是可以利用的数据资源。因此,前文所述的市场情绪数据,包括来源于互联网的用户行为、搜索量、市场舆情、宏观基本面预期等等,都被网络“变废为宝”,从而通过互联网找到投资者参与特征,选出投资者关注度较高的股票。
“与同期沪深300指数的表现相较,百发100更能在股票市场振荡时期、行业轮动剧烈时期、基本面不明朗时期抓住市场热点、了解投资者情绪、抗击投资波动风险。”网络金融中心相关负责人表示。
百发100选取的100只样本股更换频率是一个月,调整时间为每月第三周的周五。
业内人士指出,百发100指数的月收益率与中证100、沪深300、中证500的相关性依次提升,说明其投资风格偏向中小盘。
但事实并非如此。从样本股的构成来说,以某一期样本股为例,样本股总市值6700亿元,占A股市值4.7%。样本股的构成上,中小板21只,创业板4只,其余75只样本股均为大盘股。由此可见,百发100还是偏向大盘为主、反映主流市场走势。
样本股每个月的改变比例都不同,最极端的时候曾经有60%进行了换仓。用大数据预测热点变化,市场热点往往更迭很快;但同时也要考虑交易成本。两方面考虑,网络最后测算认为一个月换一次仓位为最佳。
样本股对百发100而言是核心机密——据说“全世界只有基金经理和指数编制机构负责人两个人知道”——都是由机器决定后,基金经理分配给不同的交易员建仓买入。基金经理也没有改变样本股的权利。
展望未来,网络金融中心相关负责人踌躇满志,“百发100指数及基金的推出,只是我们的开端和尝试,未来将形成多样化、系列投资产品。”
除了百发100,目前市场上打着大数据旗帜的基金还有2014年9月推出的南方-新浪I100和I300指数基金。
南方-新浪I100和I300是由南方基金、新浪财经和深圳证券信息公司三方联合编制的。和百发100类似,也是按照财务因子和市场情绪因子进行模型打分,按照分值将前100和前300名股票构成样本股。推出至今,这两个指数基金分别上涨了10%左右。
正如百发100的市场情绪因子来自网络,南方-新浪I100和I300的市场情绪因子全部来自新浪平台。其中包括用户在新浪财经对行情的访问热度、对股票的搜索热度;用户在新浪财经对股票相关新闻的浏览热度;股票相关微博的多空分析数据等。
此外,阿里巴巴旗下的天弘基金也有意在大数据策略上做文章。据了解,天弘基金将和阿里巴巴合作,推出大数据基金产品,最早将于2015年初问世。
天弘基金机构产品部总经理刘燕曾对媒体表示,“在传统的调研上,大数据将贡献于基础资产的研究,而以往过度依赖线下研究报告。大数据将视野拓展至了线上的数据分析,给基金经理选股带来新的逻辑。”
在BAT三巨头中,腾讯其实是最早推出指数基金的。腾讯与中证指数公司、济安金信公司合作开发的“中证腾安价值100指数”早在2013年5月就发布了,号称是国内第一家由互联网媒体与专业机构编制发布的A股指数。不过,业内人士表示,有关指数并没有真正应用大数据技术。虽然腾讯旗下的微信是目前最热的社交平台,蕴藏了大量的社交数据,但腾讯未来怎么开发,目前还并不清晰。
大数据投资平台化
中欧商学院副教授陈威如在其《平台战略》一书中提到,21世纪将成为一道分水岭,人类商业行为将全面普及平台模式,大数据金融也不例外。
然而,由于大数据模型对成本要求极高,就好比不可能每家公司都搭建自己的云计算系统一样,让每家机构自己建设大数据模型,从数据来源和处理技术方面看都是不现实的。业内人士认为,大数据未来必将成为平台化的服务。
目前,阿里、网络等企业都表示下一步方向是平台化。
蚂蚁金服所致力搭建的平台,一方面包括招财宝一类的金融产品平台,另一方面包括云计算、大数据服务平台。蚂蚁金服人士说,“我们很清楚自己的优势不是金融,而是包括电商、云计算、大数据等技术。蚂蚁金服希望用这些技术搭建一个基础平台,把这些能力开放出去,供金融机构使用。”
网络亦是如此。接近网络的人士称,未来是否向平台化发展,目前还在讨论中,但可以确定的是,“网络不是金融机构,目的不是发产品,百发100的意义在于打造影响力,而非经济效益。”
当BAT还在摸索前行时,已有嗅觉灵敏者抢占了先机,那就是通联数据。
通联数据股份公司(DataYes)由曾任博时基金副董事长肖风带队创建、万向集团投资成立,总部位于上海,公司愿景是“让投资更容易,用金融服务云平台提升投资管理效率和投研能力”。该平台7月上线公测,目前已拥有130多家机构客户,逾万名个人投资者。
通联数据目前有四个主要平台,分别是通联智能投资研究平台、通联金融大数据服务平台、通联多资产投资管理平台和金融移动办公平台。
通联智能投资研究平台包括雅典娜-智能事件研究、策略研究、智能研报三款产品,可以对基于自然语言的智能事件进行策略分析,实时跟踪市场热点,捕捉市场情绪。可以说,和百发100类似,其核心技术在于将互联网非结构化数据的量化使用。
通联金融大数据服务平台更侧重于专业金融数据的分析整理。它可以提供公司基本面数据、国内外主要证券、期货交易所的行情数据、公司公告数据、公关经济、行业动态的结构化数据、金融新闻和舆情的非结构化数据等。
假如将上述两个平台比作“收割机”,通联多资产投资管理平台就是“厨房”。在这个“厨房”里,可以进行全球跨资产的投资组合管理方案、订单管理方案、资产证券化定价分析方案等。
通联数据可以按照主题热点或者自定义关键字进行分析,构建知识图谱,将相关的新闻和股票提取做成简洁的分析框架。例如用户对特斯拉感兴趣,就可以通过主题热点看到和特斯拉相关的公司,并判断这个概念是否值得投资。“过去这个搜集过程要花费几天时间,现在只需要几分钟就可以完成。”王政表示。
“通联数据就好比一家餐馆,我们把所有原料搜集来、清洗好、准备好,同时准备了一个锅,也就是大数据存储平台。研究员和基金经理像厨师一样,用原料、工具去‘烹制’自己的策略。”王政形容道。
大数据在平台上扮演的角色,就是寻找关联关系。人类总是习惯首先构建因果关系,继而去倒推和佐证。机器学习则不然,它可以在海量数据中查获超越人类想象的关联关系。正如维克托`迈尔-舍恩伯格在《大数据时代》中所提到的,社会需要放弃它对因果关系的渴求,而仅需关注相互关系。
例如,美国超市沃尔玛通过大数据分析,发现飓风用品和蛋挞摆在一起可以提高销量,并由此创造了颇大的经济效益。如果没有大数据技术,谁能将这毫无关联的两件商品联系在一起?
通联数据通过机器学习,也能找到传统量化策略无法发现的市场联系。其中包括各家公司之间的资本关系、产品关系、竞争关系、上下游关系,也包括人与人之间的关系,例如管理团队和其他公司有没有关联,是否牵扯合作等。
未来量化研究员是否将成为一个被淘汰的职业?目前研究员的主要工作就是收集整理数据,变成投资决策,而之后这个工作将更多由机器完成。
“当初医疗科技发展时,人们也认为医生会被淘汰,但其实并不会。同理,研究员也会一直存在,但他们会更注重深入分析和调研,初级的数据搜集可以交给机器完成。”王政表示。
但当未来大数据平台并广泛应用后,是否会迅速挤压套利空间?这也是一个问题。回答根据网上资料整理