『壹』 誰有金融數據挖掘,關聯規則分析與挖掘的一些介紹啊
雨林演算法的數據結構:
AVC-set:節點n包含的所有紀錄在某個屬性上的投影,其中該AVC-set包括了屬性的不同值在每個類別上的計數。
AVC-group:一個節點n上所有的AVC -set的集合
AVC-set的所佔內存的大小正比於對應屬性的不同值個數,AVC-group並不是資料庫信息的簡單的壓縮,它只是提供了建立決策樹需要的信息, AVC-group所佔用的內存空間遠遠小於資料庫所實際佔用的空間。
一般設計方案:
AVC_set
{
//存儲屬性的各個值
DistinctValue[]
//存儲屬性各個值在某個類上對應的計數
DistinctValueCountForClassA[]
DistinctValueCountForClassB[]
… …
}
AVC_group
{
//節點n中的每個屬性的avc_set
AVC_set[]
}
自頂向下決策樹演算法
BuildTree(Node m,datapatition D,algorithm decisionTree)
對D使用決策樹演算法decisionTree得到分裂指標crit(n)
令k為節點n的子節點個數
if(k>0)
建立n的k個子節點c1,…,ck
使用最佳分割將D分裂為D1,…,Dk
for(i=1;i<=k;i++)
BuildTree(ci,Di)
endfor
endif
RainForest 演算法框架重新定義的部分:
1a) for 每一個屬性的謂詞p,尋找最佳的分割
1b) decisionTree.find_best_partitioning(AVC-set of p)
1c) endfor
2a) k= decisionTree.decide_splitting_criterion();//決定最終的分割
雨林演算法的常規過程:
建立節點的AVC-group
(通過讀取整個原始資料庫或者某個分支的資料庫表或文件)
選擇分裂屬性和分裂標准:取決於使用雨林演算法框架的具體演算法,通過逐一檢查AVC-set來選擇。
將數據分解到各個子節點:必須讀取整個數據集(資料庫或文件),將各條數據分解到各個子節點中,此時如果有足夠的內存,我們將建立一個或多個子節點的AVC-group
參考資料:李岱 rainforest.ppt 什麼是數據挖掘
數據挖掘(Data Mining),又稱為資料庫中的知識發現(Knowledge Discovery in Database, KDD),就是從大量數據中獲取有效的、新穎的、潛在有用的、最終可理解的模式的非平凡過程,簡單的說,數據挖掘就是從大量數據中提取或「挖掘」知識。
並非所有的信息發現任務都被視為數據挖掘。例如,使用資料庫管理系統查找個別的記錄,或通過網際網路的搜索引擎查找特定的Web頁面,則是信息檢索(information retrieval)領域的任務。雖然這些任務是重要的,可能涉及使用復雜的演算法和數據結構,但是它們主要依賴傳統的計算機科學技術和數據的明顯特徵來創建索引結構,從而有效地組織和檢索信息。盡管如此,數據挖掘技術也已用來增強信息檢索系統的能力。
編輯本段數據挖掘的起源
為迎接前一節中的這些挑戰,來自不同學科的研究者匯集到一起,開始著手開發可以處理不同數據類型的更有效的、可伸縮的工具。這些工作建立在研究者先前使用的方法學和演算法之上,在數據挖掘領域達到高潮。特別地是,數據挖掘利用了來自如下一些領域的思想:(1) 來自統計學的抽樣、估計和假設檢驗,(2) 人工智慧、模式識別和機器學習的搜索演算法、建模技術和學習理論。數據挖掘也迅速地接納了來自其他領域的思想,這些領域包括最優化、進化計算、資訊理論、信號處理、可視化和信息檢索。
一些其他領域也起到重要的支撐作用。特別地,需要資料庫系統提供有效的存儲、索引和查詢處理支持。源於高性能(並行)計算的技術在處理海量數據集方面常常是重要的。分布式技術也能幫助處理海量數據,並且當數據不能集中到一起處理時更是至關重要。
編輯本段數據挖掘能做什麼
1)數據挖掘能做以下六種不同事情(分析方法):
· 分類 (Classification)
· 估值(Estimation)
· 預言(Prediction)
· 相關性分組或關聯規則(Affinity grouping or association rules)
· 聚集(Clustering)
· 描述和可視化(Des cription and Visualization)
· 復雜數據類型挖掘(Text, Web ,圖形圖像,視頻,音頻等)
2)數據挖掘分類
以上六種數據挖掘的分析方法可以分為兩類:直接數據挖掘;間接數據挖掘
· 直接數據挖掘
目標是利用可用的數據建立一個模型,這個模型對剩餘的數據,對一個特定的變數(可以理解成資料庫中表的屬性,即列)進行描述。
· 間接數據挖掘
目標中沒有選出某一具體的變數,用模型進行描述;而是在所有的變數中建立起某種關系 。
· 分類、估值、預言屬於直接數據挖掘;後三種屬於間接數據挖掘
3)各種分析方法的簡介
· 分類 (Classification)
首先從數據中選出已經分好類的訓練集,在該訓練集上運用數據挖掘分類的技術,建立分類模型,對於沒有分類的數據進行分類。
例子:
a. 信用卡申請者,分類為低、中、高風險
b. 分配客戶到預先定義的客戶分片
注意: 類的個數是確定的,預先定義好的
· 估值(Estimation)
估值與分類類似,不同之處在於,分類描述的是離散型變數的輸出,而估值處理連續值的輸出;分類的類別是確定數目的,估值的量是不確定的。
例子:
a. 根據購買模式,估計一個家庭的孩子個數
b. 根據購買模式,估計一個家庭的收入
c. 估計real estate的價值
一般來說,估值可以作為分類的前一步工作。給定一些輸入數據,通過估值,得到未知的連續變數的值,然後,根據預先設定的閾值,進行分類。例如:銀行對家庭貸款業務,運用估值,給各個客戶記分(Score 0~1)。然後,根據閾值,將貸款級別分類。
· 預言(Prediction)
通常,預言是通過分類或估值起作用的,也就是說,通過分類或估值得出模型,該模型用於對未知變數的預言。從這種意義上說,預言其實沒有必要分為一個單獨的類。預言其目的是對未來未知變數的預測,這種預測是需要時間來驗證的,即必須經過一定時間後,才知道預言准確性是多少。
· 相關性分組或關聯規則(Affinity grouping or association rules)
決定哪些事情將一起發生。
例子:
a. 超市中客戶在購買A的同時,經常會購買B,即A => B(關聯規則)
b. 客戶在購買A後,隔一段時間,會購買B (序列分析)
· 聚集(Clustering)
聚集是對記錄分組,把相似的記錄在一個聚集里。聚集和分類的區別是聚集不依賴於預先定義好的類,不需要訓練集。
例子:
a. 一些特定症狀的聚集可能預示了一個特定的疾病
b. 租VCD類型不相似的客戶聚集,可能暗示成員屬於不同的亞文化群
聚集通常作為數據挖掘的第一步。例如,"哪一種類的促銷對客戶響應最好?",對於這一 類問題,首先對整個客戶做聚集,將客戶分組在各自的聚集里,然後對每個不同的聚集,回答問題,可能效果更好。
· 描述和可視化(Des cription and Visualization)
是對數據挖掘結果的表示方式。
編輯本段數據挖掘中的關聯規則上面演算法講的很清楚了,我來舉個例子:
Training data:
Id age income class
1 young 65 G
2 young 15 B
3 young 75 G
4 senior 40 B
5 senior 100 G
6 senior 60 G
AVC set „age「 for N1:
value class count
young B 1
young G 2
senior B 1
senior G 2
AVC set „income「 for N1:
value class count
15 B 1
40 B 1
60 G 1
65 G 1
75 G 1
100 G 1
AVC set „income「 for N2:
value class count
15 B 1
65 G 1
75 G 1
AVC set „age「 for N2:
value class count
young B 1
young G 2
最後推出雨林: N1
age=young / \ age=senior
/ \
N2 N3
最後提醒一點,對於雨林演算法,訓練樣本集不要大於3百萬。否則改用SPRINT。
1.什麼是關聯規則
在描述有關關聯規則的一些細節之前,我們先來看一個有趣的故事: "尿布與啤酒"的故事。
在一家超市裡,有一個有趣的現象:尿布和啤酒赫然擺在一起出售。但是這個奇怪的舉措卻使尿布和啤酒的銷量雙雙增加了。這不是一個笑話,而是發生在美國沃爾瑪連鎖店超市的真實案例,並一直為商家所津津樂道。沃爾瑪擁有世界上最大的數據倉庫系統,為了能夠准確了解顧客在其門店的購買習慣,沃爾瑪對其顧客的購物行為進行購物籃分析,想知道顧客經常一起購買的商品有哪些。沃爾瑪數據倉庫里集中了其各門店的詳細原始交易數據。在這些原始交易數據的基礎上,沃爾瑪利用數據挖掘方法對這些數據進行分析和挖掘。一個意外的發現是:"跟尿布一起購買最多的商品竟是啤酒!經過大量實際調查和分析,揭示了一個隱藏在"尿布與啤酒"背後的美國人的一種行為模式:在美國,一些年輕的父親下班後經常要到超市去買嬰兒尿布,而他們中有30%~40%的人同時也為自己買一些啤酒。產生這一現象的原因是:美國的太太們常叮囑她們的丈夫下班後為小孩買尿布,而丈夫們在買尿布後又隨手帶回了他們喜歡的啤酒。
按常規思維,尿布與啤酒風馬牛不相及,若不是藉助數據挖掘技術對大量交易數據進行挖掘分析,沃爾瑪是不可能發現數據內在這一有價值的規律的。
數據關聯是資料庫中存在的一類重要的可被發現的知識。若兩個或多個變數的取值之間存在某種規律性,就稱為關聯。關聯可分為簡單關聯、時序關聯、因果關聯。關聯分析的目的是找出資料庫中隱藏的關聯網。有時並不知道資料庫中數據的關聯函數,即使知道也是不確定的,因此關聯分析生成的規則帶有可信度。關聯規則挖掘發現大量數據中項集之間有趣的關聯或相關聯系。Agrawal等於1993年首先提出了挖掘顧客交易資料庫中項集間的關聯規則問題,以後諸多的研究人員對關聯規則的挖掘問題進行了大量的研究。他們的工作包括對原有的演算法進行優化,如引入隨機采樣、並行的思想等,以提高演算法挖掘規則的效率;對關聯規則的應用進行推廣。關聯規則挖掘在數據挖掘中是一個重要的課題,最近幾年已被業界所廣泛研究。
2.關聯規則挖掘過程、分類及其相關演算法
2.1關聯規則挖掘的過程
關聯規則挖掘過程主要包含兩個階段:第一階段必須先從資料集合中找出所有的高頻項目組(Frequent Itemsets),第二階段再由這些高頻項目組中產生關聯規則(Association Rules)。
關聯規則挖掘的第一階段必須從原始資料集合中,找出所有高頻項目組(Large Itemsets)。高頻的意思是指某一項目組出現的頻率相對於所有記錄而言,必須達到某一水平。一項目組出現的頻率稱為支持度(Support),以一個包含A與B兩個項目的2-itemset為例,我們可以經由公式(1)求得包含{A,B}項目組的支持度,若支持度大於等於所設定的最小支持度(Minimum Support)門檻值時,則{A,B}稱為高頻項目組。一個滿足最小支持度的k-itemset,則稱為高頻k-項目組(Frequent k-itemset),一般表示為Large k或Frequent k。演算法並從Large k的項目組中再產生Large k+1,直到無法再找到更長的高頻項目組為止。
關聯規則挖掘的第二階段是要產生關聯規則(Association Rules)。從高頻項目組產生關聯規則,是利用前一步驟的高頻k-項目組來產生規則,在最小信賴度(Minimum Confidence)的條件門檻下,若一規則所求得的信賴度滿足最小信賴度,稱此規則為關聯規則。例如:經由高頻k-項目組{A,B}所產生的規則AB,其信賴度可經由公式(2)求得,若信賴度大於等於最小信賴度,則稱AB為關聯規則。
就沃爾馬案例而言,使用關聯規則挖掘技術,對交易資料庫中的紀錄進行資料挖掘,首先必須要設定最小支持度與最小信賴度兩個門檻值,在此假設最小支持度min_support=5% 且最小信賴度min_confidence=70%。因此符合此該超市需求的關聯規則將必須同時滿足以上兩個條件。若經過挖掘過程所找到的關聯規則「尿布,啤酒」,滿足下列條件,將可接受「尿布,啤酒」的關聯規則。用公式可以描述Support(尿布,啤酒)>=5%且Confidence(尿布,啤酒)>=70%。其中,Support(尿布,啤酒)>=5%於此應用範例中的意義為:在所有的交易紀錄資料中,至少有5%的交易呈現尿布與啤酒這兩項商品被同時購買的交易行為。Confidence(尿布,啤酒)>=70%於此應用範例中的意義為:在所有包含尿布的交易紀錄資料中,至少有70%的交易會同時購買啤酒。因此,今後若有某消費者出現購買尿布的行為,超市將可推薦該消費者同時購買啤酒。這個商品推薦的行為則是根據「尿布,啤酒」關聯規則,因為就該超市過去的交易紀錄而言,支持了「大部份購買尿布的交易,會同時購買啤酒」的消費行為。
從上面的介紹還可以看出,關聯規則挖掘通常比較適用與記錄中的指標取離散值的情況。如果原始資料庫中的指標值是取連續的數據,則在關聯規則挖掘之前應該進行適當的數據離散化(實際上就是將某個區間的值對應於某個值),數據的離散化是數據挖掘前的重要環節,離散化的過程是否合理將直接影響關聯規則的挖掘結果。
2.2關聯規則的分類
按照不同情況,關聯規則可以進行分類如下:
1.基於規則中處理的變數的類別,關聯規則可以分為布爾型和數值型。
布爾型關聯規則處理的值都是離散的、種類化的,它顯示了這些變數之間的關系;而數值型關聯規則可以和多維關聯或多層關聯規則結合起來,對數值型欄位進行處理,將其進行動態的分割,或者直接對原始的數據進行處理,當然數值型關聯規則中也可以包含種類變數。例如:性別=「女」=>職業=「秘書」 ,是布爾型關聯規則;性別=「女」=>avg(收入)=2300,涉及的收入是數值類型,所以是一個數值型關聯規則。
2.基於規則中數據的抽象層次,可以分為單層關聯規則和多層關聯規則。
在單層的關聯規則中,所有的變數都沒有考慮到現實的數據是具有多個不同的層次的;而在多層的關聯規則中,對數據的多層性已經進行了充分的考慮。例如:IBM台式機=>Sony列印機,是一個細節數據上的單層關聯規則;台式機=>Sony列印機,是一個較高層次和細節層次之間的多層關聯規則。
3.基於規則中涉及到的數據的維數,關聯規則可以分為單維的和多維的。
在單維的關聯規則中,我們只涉及到數據的一個維,如用戶購買的物品;而在多維的關聯規則中,要處理的數據將會涉及多個維。換成另一句話,單維關聯規則是處理單個屬性中的一些關系;多維關聯規則是處理各個屬性之間的某些關系。例如:啤酒=>尿布,這條規則只涉及到用戶的購買的物品;性別=「女」=>職業=「秘書」,這條規則就涉及到兩個欄位的信息,是兩個維上的一條關聯規則。
2.3關聯規則挖掘的相關演算法
1.Apriori演算法:使用候選項集找頻繁項集
Apriori演算法是一種最有影響的挖掘布爾關聯規則頻繁項集的演算法。其核心是基於兩階段頻集思想的遞推演算法。該關聯規則在分類上屬於單維、單層、布爾關聯規則。在這里,所有支持度大於最小支持度的項集稱為頻繁項集,簡稱頻集。
該演算法的基本思想是:首先找出所有的頻集,這些項集出現的頻繁性至少和預定義的最小支持度一樣。然後由頻集產生強關聯規則,這些規則必須滿足最小支持度和最小可信度。然後使用第1步找到的頻集產生期望的規則,產生只包含集合的項的所有規則,其中每一條規則的右部只有一項,這里採用的是中規則的定義。一旦這些規則被生成,那麼只有那些大於用戶給定的最小可信度的規則才被留下來。為了生成所有頻集,使用了遞推的方法。
可能產生大量的候選集,以及可能需要重復掃描資料庫,是Apriori演算法的兩大缺點。
2.基於劃分的演算法
Savasere等設計了一個基於劃分的演算法。這個演算法先把資料庫從邏輯上分成幾個互不相交的塊,每次單獨考慮一個分塊並對它生成所有的頻集,然後把產生的頻集合並,用來生成所有可能的頻集,最後計算這些項集的支持度。這里分塊的大小選擇要使得每個分塊可以被放入主存,每個階段只需被掃描一次。而演算法的正確性是由每一個可能的頻集至少在某一個分塊中是頻集保證的。該演算法是可以高度並行的,可以把每一分塊分別分配給某一個處理器生成頻集。產生頻集的每一個循環結束後,處理器之間進行通信來產生全局的候選k-項集。通常這里的通信過程是演算法執行時間的主要瓶頸;而另一方面,每個獨立的處理器生成頻集的時間也是一個瓶頸。
3.FP-樹頻集演算法
針對Apriori演算法的固有缺陷,J. Han等提出了不產生候選挖掘頻繁項集的方法:FP-樹頻集演算法。採用分而治之的策略,在經過第一遍掃描之後,把資料庫中的頻集壓縮進一棵頻繁模式樹(FP-tree),同時依然保留其中的關聯信息,隨後再將FP-tree分化成一些條件庫,每個庫和一個長度為1的頻集相關,然後再對這些條件庫分別進行挖掘。當原始數據量很大的時候,也可以結合劃分的方法,使得一個FP-tree可以放入主存中。實驗表明,FP-growth對不同長度的規則都有很好的適應性,同時在效率上較之Apriori演算法有巨大的提高。
3.該領域在國內外的應用
3.1關聯規則發掘技術在國內外的應用
就目前而言,關聯規則挖掘技術已經被廣泛應用在西方金融行業企業中,它可以成功預測銀行客戶需求。一旦獲得了這些信息,銀行就可以改善自身營銷。現在銀行天天都在開發新的溝通客戶的方法。各銀行在自己的ATM機上就捆綁了顧客可能感興趣的本行產品信息,供使用本行ATM機的用戶了解。如果資料庫中顯示,某個高信用限額的客戶更換了地址,這個客戶很有可能新近購買了一棟更大的住宅,因此會有可能需要更高信用限額,更高端的新信用卡,或者需要一個住房改善貸款,這些產品都可以通過信用卡賬單郵寄給客戶。當客戶打電話咨詢的時候,資料庫可以有力地幫助電話銷售代表。銷售代表的電腦屏幕上可以顯示出客戶的特點,同時也可以顯示出顧客會對什麼產品感興趣。
同時,一些知名的電子商務站點也從強大的關聯規則挖掘中的受益。這些電子購物網站使用關聯規則中規則進行挖掘,然後設置用戶有意要一起購買的捆綁包。也有一些購物網站使用它們設置相應的交叉銷售,也就是購買某種商品的顧客會看到相關的另外一種商品的廣告。
但是目前在我國,「數據海量,信息缺乏」是商業銀行在數據大集中之後普遍所面對的尷尬。目前金融業實施的大多數資料庫只能實現數據的錄入、查詢、統計等較低層次的功能,卻無法發現數據中存在的各種有用的信息,譬如對這些數據進行分析,發現其數據模式及特徵,然後可能發現某個客戶、消費群體或組織的金融和商業興趣,並可觀察金融市場的變化趨勢。可以說,關聯規則挖掘的技術在我國的研究與應用並不是很廣泛深入。
3.2近年來關聯規則發掘技術的一些研究
由於許多應用問題往往比超市購買問題更復雜,大量研究從不同的角度對關聯規則做了擴展,將更多的因素集成到關聯規則挖掘方法之中,以此豐富關聯規則的應用領域,拓寬支持管理決策的范圍。如考慮屬性之間的類別層次關系,時態關系,多表挖掘等。近年來圍繞關聯規則的研究主要集中於兩個方面,即擴展經典關聯規則能夠解決問題的范圍,改善經典關聯規則挖掘演算法效率和規則興趣性。
編輯本段數據挖掘技術實現
在技術上可以根據它的工作過程分為:數據的抽取、數據的存儲和管理、數據的展現等關鍵技術。
·數據的抽取
數據的抽取是數據進入倉庫的入口。由於數據倉庫是一個獨立的數據環境,它需要通過抽取過程將數據從聯機事務處理系統、外部數據源、離線的數據存儲介質中導入數據倉庫。數據抽取在技術上主要涉及互連、復制、增量、轉換、調度和監控等幾個方面的處理。在數據抽取方面,未來的技術發展將集中在系統功能集成化方面,以適應數據倉庫本身或數據源的變化,使系統更便於管理和維護。
·數據的存儲和管理
數據倉庫的組織管理方式決定了它有別於傳統資料庫的特性,也決定了其對外部數據的表現形式。數據倉庫管理所涉及的數據量比傳統事務處理大得多,且隨時間的推移而快速累積。在數據倉庫的數據存儲和管理中需要解決的是如何管理大量的數據、如何並行處理大量的數據、如何優化查詢等。目前,許多資料庫廠家提供的技術解決方案是擴展關系型資料庫的功能,將普通關系資料庫改造成適合擔當數據倉庫的伺服器。
·數據的展現
在數據展現方面主要的方式有:
查詢:實現預定義查詢、動態查詢、OLAP查詢與決策支持智能查詢;報表:產生關系數據表格、復雜表格、OLAP表格、報告以及各種綜合報表;可視化:用易於理解的點線圖、直方圖、餅圖、網狀圖、互動式可視化、動態模擬、計算機動畫技術表現復雜數據及其相互關系;統計:進行平均值、最大值、最小值、期望、方差、匯總、排序等各種統計分析;挖掘:利用數據挖掘等方法,從數據中得到關於數據關系和模式的知識。
編輯本段數據挖掘與數據倉庫融合發展
數據挖掘和數據倉庫的協同工作,一方面,可以迎合和簡化數據挖掘過程中的重要步驟,提高數據挖掘的效率和能力,確保數據挖掘中數據來源的廣泛性和完整性。另一方面,數據挖掘技術已經成為數據倉庫應用中極為重要和相對獨立的方面和工具。
數據挖掘和數據倉庫是融合與互動發展的,其學術研究價值和應用研究前景將是令人振奮的。它是數據挖掘專家、數據倉庫技術人員和行業專家共同努力的成果,更是廣大渴望從資料庫「奴隸」到資料庫「主人」轉變的企業最終用戶的通途。
統計學與數據挖掘
統計學和數據挖掘有著共同的目標:發現數據中的結構。事實上,由於它們的目標相似,一些人(尤其是統計學家)認為數據挖掘是統計學的分支。這是一個不切合實際的看法。因為數據挖掘還應用了其它領域的思想、工具和方法,尤其是計算機學科,例如資料庫技術和機器學習,而且它所關注的某些領域和統計學家所關注的有很大不同。
1.統計學的性質
試圖為統計學下一個太寬泛的定義是沒有意義的。盡管可能做到,但會引來很多異議。相反,我要關注統計學不同於數據挖掘的特性。
差異之一同上節中最後一段提到的相關,即統計學是一門比較保守的學科,目前有一種趨勢是越來越精確。當然,這本身並不是壞事,只有越精確才能避免錯誤,發現真理。但是如果過度的話則是有害的。這個保守的觀點源於統計學是數學的分支這樣一個看法,我是不同意這個觀點的,盡管統計學確實以數學為基礎(正如物理和工程也以數學為基礎,但沒有被認為是數學的分支),但它同其它學科還有緊密的聯系。
數學背景和追求精確加強了這樣一個趨勢:在採用一個方法之前先要證明,而不是象計算機 這
『貳』 如何進行大數據分析及處理
1.可視化分析
大數據分析的使用者有大數據分析專家,同時還有普通用戶,但是他們二者對於大數據分析最基本的要求就是可視化分析,因為可視化分析能夠直觀的呈現大數據特點,同時能夠非常容易被讀者所接受,就如同看圖說話一樣簡單明了。
2. 數據挖掘演算法
大數據分析的理論核心就是數據挖掘演算法,各種數據挖掘的演算法基於不同的數據類型和格式才能更加科學的呈現出數據本身具備的特點,也正是因為這些被全世界統計 學家所公認的各種統計方法(可以稱之為真理)才能深入數據內部,挖掘出公認的價值。另外一個方面也是因為有這些數據挖掘的演算法才能更快速的處理大數據,如果一個演算法得花上好幾年才能得出結論,那大數據的價值也就無從說起了。
3. 預測性分析大數據分析最終要的應用領域之一就是預測性分析,從大數據中挖掘出特點,通過科學的建立模型,之後便可以通過模型帶入新的數據,從而預測未來的數據。
4. 語義引擎
非結構化數據的多元化給數據分析帶來新的挑戰,我們需要一套工具系統的去分析,提煉數據。語義引擎需要設計到有足夠的人工智慧以足以從數據中主動地提取信息。
5.數據質量和數據管理。 大數據分析離不開數據質量和數據管理,高質量的數據和有效的數據管理,無論是在學術研究還是在商業應用領域,都能夠保證分析結果的真實和有價值。
大數據分析的基礎就是以上五個方面,當然更加深入大數據分析的話,還有很多很多更加有特點的、更加深入的、更加專業的大數據分析方法。
『叄』 如何用大數據炒股
我們如今生活在一個數據爆炸的世界裡。網路每天響應超過60億次的搜索請求,日處理數據超過100PB,相當於6000多座中國國家圖書館的書籍信息量總和。新浪微博每天都會發布上億條微博。在荒無人煙的郊外,暗藏著無數大公司的信息存儲中心,24小時夜以繼日地運轉著。
克托·邁爾-舍恩伯格在《大數據時代》一書中認為,大數據的核心就是預測,即只要數據豐富到一定程度,就可預測事情發生的可能性。例如,「從一個人亂穿馬路時行進的軌跡和速度來看他能及時穿過馬路的可能性」,或者通過一個人穿過馬路的速度,預測車子何時應該減速從而讓他及時穿過馬路。
那麼,如果把這種預測能力應用在股票投資上,又會如何?
目前,美國已經有許多對沖基金採用大數據技術進行投資,並且收獲甚豐。中國的中證廣發網路百發100指數基金(下稱百發100),上線四個多月以來已上漲68%。
和傳統量化投資類似,大數據投資也是依靠模型,但模型里的數據變數幾何倍地增加了,在原有的金融結構化數據基礎上,增加了社交言論、地理信息、衛星監測等非結構化數據,並且將這些非結構化數據進行量化,從而讓模型可以吸收。
由於大數據模型對成本要求極高,業內人士認為,大數據將成為共享平台化的服務,數據和技術相當於食材和鍋,基金經理和分析師可以通過平台製作自己的策略。
量化非結構數據
不要小看大數據的本領,正是這項剛剛興起的技術已經創造了無數「未卜先知」的奇跡。
2014年,網路用大數據技術預測命中了全國18卷中12卷高考作文題目,被網友稱為「神預測」。網路公司人士表示,在這個大數據池中,包含互聯網積累的用戶數據、歷年的命題數據以及教育機構對出題方向作出的判斷。
在2014年巴西世界盃比賽中,Google亦通過大數據技術成功預測了16強和8強名單。
從當年英格蘭報社的信鴿、費城股票交易所的信號燈到報紙電話,再到如今的互聯網、雲計算、大數據,前沿技術迅速在投資領域落地。在股票策略中,大數據日益嶄露頭角。
做股票投資策略,需要的大數據可以分為結構化數據和非結構化數據。結構化數據,簡單說就是「一堆數字」,通常包括傳統量化分析中常用的CPI、PMI、市值、交易量等專業信息;非結構化數據就是社交文字、地理位置、用戶行為等「還沒有進行量化的信息」。
量化非結構化就是用深度模型替代簡單線性模型的過程,其中所涉及的技術包括自然語言處理、語音識別、圖像識別等。
金融大數據平台-通聯數據CEO王政表示,通聯數據採用的非結構化數據可以分為三類:第一類和人相關,包括社交言論、消費、去過的地點等;第二類與物相關,如通過正在行駛的船隻和貨車判斷物聯網情況;第三類則是衛星監測的環境信息,包括汽車流、港口裝載量、新的建築開工等情況。
衛星監測信息在美國已被投入使用,2014年Google斥資5億美元收購了衛星公司Skybox,從而可以獲得實施衛星監測信息。
結構化和非結構化數據也常常相互轉化。「結構化和非結構化數據可以形象理解成把所有數據裝在一個籃子里,根據應用策略不同相互轉化。例如,在搜索頻率調查中,用戶搜索就是結構化數據;在金融策略分析中,用戶搜索就是非結構化數據。」網路公司人士表示。
華爾街拿著豐厚薪水的分析師們還不知道,自己的僱主已經將大量資本投向了取代自己的機器。
2014年11月23日,高盛向Kensho公司投資1500萬美元,以支持該公司的大數據平台建設。該平台很像iPhone里的Siri,可以快速整合海量數據進行分析,並且回答投資者提出的各種金融問題,例如「下月有颶風,將對美國建材板塊造成什麼影響?」
在Kensho處理的信息中,有80%是「非結構化」數據,例如政策文件、自然事件、地理環境、科技創新等。這類信息通常是電腦和模型難以消化的。因此,Kensho的CEO Daniel Nadler認為,華爾街過去是基於20%的信息做出100%的決策。
既然說到高盛,順便提一下,這家華爾街老牌投行如今對大數據可謂青睞有加。除了Kensho,高盛還和Fortress信貸集團在兩年前投資了8000萬美元給小額融資平台On Deck Capital。這家公司的核心競爭力也是大數據,它利用大數據對中小企業進行分析,從而選出值得投資的企業並以很快的速度為之提供短期貸款。
捕捉市場情緒
上述諸多非結構化數據,歸根結底是為了獲得一個信息:市場情緒。
在采訪中,2013年諾貝爾經濟學獎得主羅伯特•席勒的觀點被無數采訪對象引述。可以說,大數據策略投資的創業者們無一不是席勒的信奉者。
席勒於上世紀80年代設計的投資模型至今仍被業內稱道。在他的模型中,主要參考三個變數:投資項目計劃的現金流、公司資本的估算成本、股票市場對投資的反應(市場情緒)。他認為,市場本身帶有主觀判斷因素,投資者情緒會影響投資行為,而投資行為直接影響資產價格。
然而,在大數據技術誕生之前,市場情緒始終無法進行量化。
回顧人類股票投資發展史,其實就是將影響股價的因子不斷量化的過程。
上世紀70年代以前,股票投資是一種定性的分析,沒有數據應用,而是一門主觀的藝術。隨著電腦的普及,很多人開始研究驅動股價變化的規律,把傳統基本面研究方法用模型代替,市盈率、市凈率的概念誕生,量化投資由此興起。
量化投資技術的興起也帶動了一批華爾街大鱷的誕生。例如,巴克萊全球投資者(BGI)在上世紀70年代就以其超越同行的電腦模型成為全球最大的基金管理公司;進入80年代,另一家基金公司文藝復興(Renaissance)年均回報率在扣除管理費和投資收益分成等費用後仍高達34%,堪稱當時最佳的對沖基金,之後十多年該基金資產亦十分穩定。
「從主觀判斷到量化投資,是從藝術轉為科學的過程。」王政表示,上世紀70年代以前一個基本面研究員只能關注20隻到50隻股票,覆蓋面很有限。有了量化模型就可以覆蓋所有股票,這就是一個大的飛躍。此外,隨著計算機處理能力的發展,信息的用量也有一個飛躍變化。過去看三個指標就夠了,現在看的指標越來越多,做出的預測越來越准確。
隨著21世紀的到來,量化投資又遇到了新的瓶頸,就是同質化競爭。各家機構的量化模型越來越趨同,導致投資結果同漲同跌。「能否在看到報表數據之前,用更大的數據尋找規律?」這是大數據策略創業者們試圖解決的問題。
於是,量化投資的多米諾骨牌終於觸碰到了席勒理論的第三層變數——市場情緒。
計算機通過分析新聞、研究報告、社交信息、搜索行為等,藉助自然語言處理方法,提取有用的信息;而藉助機器學習智能分析,過去量化投資只能覆蓋幾十個策略,大數據投資則可以覆蓋成千上萬個策略。
基於互聯網搜索數據和社交行為的經濟預測研究,已逐漸成為一個新的學術熱點,並在經濟、社會以及健康等領域的研究中取得了一定成果。在資本市場應用上,研究發現搜索數據可有效預測未來股市活躍度(以交易量指標衡量)及股價走勢的變化。
海外就有學術研究指出,公司的名稱或者相關關鍵詞的搜索量,與該公司的股票交易量正相關。德國科學家Tobias Preis就進行了如此研究:Tobias利用谷歌搜索引擎和谷歌趨勢(Google Trends),以美國標普500指數的500隻股票為其樣本,以2004年至2010年為觀察區間,發現谷歌趨勢數據的公司名稱搜索量和對應股票的交易量,在每周一次的時間尺度上有高度關聯性。也就是說,當某個公司名稱在谷歌的搜索量活動增加時,無論股票的價格是上漲或者下跌,股票成交量與搜索量增加;反之亦然,搜索量下降,股票成交量下降。以標普500指數的樣本股為基礎,依據上述策略構建的模擬投資組合在六年的時間內獲得了高達329%的累計收益。
在美國市場上,還有多家私募對沖基金利用Twitter和Facebook的社交數據作為反映投資者情緒和市場趨勢的因子,構建對沖投資策略。利用互聯網大數據進行投資策略和工具的開發已經成為世界金融投資領域的新熱點。
保羅·霍丁管理的對沖基金Derwent成立於2011年5月,注冊在開曼群島,初始規模約為4000萬美元, 2013年投資收益高達23.77%。該基金的投資標的包括流動性較好的股票及股票指數產品。
通聯數據董事長肖風在《投資革命》中寫道,Derwent的投資策略是通過實時跟蹤Twitter用戶的情緒,以此感知市場參與者的「貪婪與恐懼」,從而判斷市場漲跌來獲利。
在Derwent的網頁上可以看到這樣一句話:「用實時的社交媒體解碼暗藏的交易機會。」保羅·霍丁在基金宣傳冊中表示:「多年以來,投資者已經普遍接受一種觀點,即恐懼和貪婪是金融市場的驅動力。但是以前人們沒有技術或數據來對人類情感進行量化。這是第四維。Derwent就是要通過即時關注Twitter中的公眾情緒,指導投資。」
另一家位於美國加州的對沖基金MarketPsych與湯普森·路透合作提供了分布在119個國家不低於18864項獨立指數,比如每分鍾更新的心情狀態(包括樂觀、憂郁、快樂、害怕、生氣,甚至還包括創新、訴訟及沖突情況等),而這些指數都是通過分析Twitter的數據文本,作為股市投資的信號。
此類基金還在不斷涌現。金融危機後,幾個台灣年輕人在波士頓組建了一家名為FlyBerry的對沖基金,口號是「Modeling the World(把世界建模)」。它的投資理念全部依託大數據技術,通過監測市場輿論和行為,對投資做出秒速判斷。
關於社交媒體信息的量化應用,在股票投資之外的領域也很常見:Twitter自己也十分注重信息的開發挖掘,它與DataSift和Gnip兩家公司達成了一項出售數據訪問許可權的協議,銷售人們的想法、情緒和溝通數據,從而作為顧客的反饋意見匯總後對商業營銷活動的效果進行判斷。從事類似工作的公司還有DMetics,它通過對人們的購物行為進行分析,尋找影響消費者最終選擇的細微原因。
回到股票世界,利用社交媒體信息做投資的公司還有StockTwits。打開這家網站,首先映入眼簾的宣傳語是「看看投資者和交易員此刻正如何討論你的股票」。正如其名,這家網站相當於「股票界的Twitter」,主要面向分析師、媒體和投資者。它通過機器和人工相結合的手段,將關於股票和市場的信息整理為140字以內的短消息供用戶參考。
此外,StockTwits還整合了社交功能,並作為插件可以嵌入Twitter、Facebook和LinkedIn等主要社交平台,讓人們可以輕易分享投資信息。
另一家公司Market Prophit也很有趣。這家網站的宣傳語是「從社交媒體噪音中提煉市場信號」。和StockTwits相比,Market Prophit更加註重大數據的應用。它採用了先進的語義分析法,可以將Twitter里的金融對話量化為「-1(極度看空)」到「1(極度看多)」之間的投資建議。網站還根據語義量化,每天公布前十名和後十名的股票熱度榜單。網站還設計了「熱度地圖」功能,根據投資者情緒和意見,按照不同板塊,將板塊內的個股按照顏色深淺進行標注,誰漲誰跌一目瞭然。
中國原創大數據指數
盡管大數據策略投資在美國貌似炙手可熱,但事實上,其應用尚僅限於中小型對沖基金和創業平台公司。大數據策略投資第一次被大規模應用,應歸於中國的百發100。
網路金融中心相關負責人表示,與歐美等成熟資本市場主要由理性機構投資者構成相比,東亞尤其是中國的股票類證券投資市場仍以散戶為主,因此市場受投資者情緒和宏觀政策性因素影響很大。而個人投資者行為可以更多地反映在互聯網用戶行為大數據上,從而為有效地預測市場情緒和趨勢提供了可能。這也就是中國國內公募基金在應用互聯網大數據投資方面比海外市場並不落後、甚至領先的原因。
百發100指數由網路、中證指數公司、廣發基金聯合研發推出,於2014年7月8日正式對市場發布,實盤運行以來一路上漲,漲幅超過60%。跟蹤該指數的指數基金規模上限為30億份,2014年9月17日正式獲批,10月20日發行時一度創下26小時瘋賣18億份的「神話」。
外界都知道百發100是依託大數據的指數基金,但其背後的細節鮮為人知。
百發100數據層面的分析分為兩個層面,即數據工廠的數據歸集和數據處理系統的數據分析。其中數據工廠負責大數據的收集分析,例如將來源於互聯網的非結構化數據進行指標化、產品化等數據量化過程;數據處理系統,可以在數據工廠遞交的大數據中尋找相互統計關聯,提取有效信息,最終應用於策略投資。
「其實百發100是在傳統量化投資技術上融合了基於互聯網大數據的市場走勢和投資情緒判斷。」業內人士概括道。
和傳統量化投資類似,百發100對樣本股的甄選要考慮財務因子、基本面因子和動量因子,包括凈資產收益率(ROE)、資產收益率(ROA)、每股收益增長率(EPS)、流動負債比率、企業價值倍數(EV/EBITDA)、凈利潤同比增長率、股權集中度、自由流通市值以及最近一個月的個股價格收益率和波動率等。
此外,市場走勢和投資情緒是在傳統量化策略基礎上的創新產物,也是百發100的核心競爭力。接近網路的人士稱,市場情緒因子對百發100基金起決定性作用。
網路金融中心相關負責人是羅伯特•席勒觀點的支持者。他認為,投資者行為和情緒對資產價格、市場走勢有著巨大的影響。因此「通過互聯網用戶行為大數據反映的投資市場情緒、宏觀經濟預期和走勢,成為百發100指數模型引入大數據因子的重點」。
傳統量化投資主要著眼點在於對專業化金融市場基本面和交易數據的應用。但在網路金融中心相關業務負責人看來,無論是來源於專業金融市場的結構化數據,還是來源於互聯網的非結構化數據,都是可以利用的數據資源。因此,前文所述的市場情緒數據,包括來源於互聯網的用戶行為、搜索量、市場輿情、宏觀基本面預期等等,都被網路「變廢為寶」,從而通過互聯網找到投資者參與特徵,選出投資者關注度較高的股票。
「與同期滬深300指數的表現相較,百發100更能在股票市場振盪時期、行業輪動劇烈時期、基本面不明朗時期抓住市場熱點、了解投資者情緒、抗擊投資波動風險。」網路金融中心相關負責人表示。
百發100選取的100隻樣本股更換頻率是一個月,調整時間為每月第三周的周五。
業內人士指出,百發100指數的月收益率與中證100、滬深300、中證500的相關性依次提升,說明其投資風格偏向中小盤。
但事實並非如此。從樣本股的構成來說,以某一期樣本股為例,樣本股總市值6700億元,佔A股市值4.7%。樣本股的構成上,中小板21隻,創業板4隻,其餘75隻樣本股均為大盤股。由此可見,百發100還是偏向大盤為主、反映主流市場走勢。
樣本股每個月的改變比例都不同,最極端的時候曾經有60%進行了換倉。用大數據預測熱點變化,市場熱點往往更迭很快;但同時也要考慮交易成本。兩方面考慮,網路最後測算認為一個月換一次倉位為最佳。
樣本股對百發100而言是核心機密——據說「全世界只有基金經理和指數編制機構負責人兩個人知道」——都是由機器決定後,基金經理分配給不同的交易員建倉買入。基金經理也沒有改變樣本股的權利。
展望未來,網路金融中心相關負責人躊躇滿志,「百發100指數及基金的推出,只是我們的開端和嘗試,未來將形成多樣化、系列投資產品。」
除了百發100,目前市場上打著大數據旗幟的基金還有2014年9月推出的南方-新浪I100和I300指數基金。
南方-新浪I100和I300是由南方基金、新浪財經和深圳證券信息公司三方聯合編制的。和百發100類似,也是按照財務因子和市場情緒因子進行模型打分,按照分值將前100和前300名股票構成樣本股。推出至今,這兩個指數基金分別上漲了10%左右。
正如百發100的市場情緒因子來自網路,南方-新浪I100和I300的市場情緒因子全部來自新浪平台。其中包括用戶在新浪財經對行情的訪問熱度、對股票的搜索熱度;用戶在新浪財經對股票相關新聞的瀏覽熱度;股票相關微博的多空分析數據等。
此外,阿里巴巴旗下的天弘基金也有意在大數據策略上做文章。據了解,天弘基金將和阿里巴巴合作,推出大數據基金產品,最早將於2015年初問世。
天弘基金機構產品部總經理劉燕曾對媒體表示,「在傳統的調研上,大數據將貢獻於基礎資產的研究,而以往過度依賴線下研究報告。大數據將視野拓展至了線上的數據分析,給基金經理選股帶來新的邏輯。」
在BAT三巨頭中,騰訊其實是最早推出指數基金的。騰訊與中證指數公司、濟安金信公司合作開發的「中證騰安價值100指數」早在2013年5月就發布了,號稱是國內第一家由互聯網媒體與專業機構編制發布的A股指數。不過,業內人士表示,有關指數並沒有真正應用大數據技術。雖然騰訊旗下的微信是目前最熱的社交平台,蘊藏了大量的社交數據,但騰訊未來怎麼開發,目前還並不清晰。
大數據投資平台化
中歐商學院副教授陳威如在其《平台戰略》一書中提到,21世紀將成為一道分水嶺,人類商業行為將全面普及平台模式,大數據金融也不例外。
然而,由於大數據模型對成本要求極高,就好比不可能每家公司都搭建自己的雲計算系統一樣,讓每家機構自己建設大數據模型,從數據來源和處理技術方面看都是不現實的。業內人士認為,大數據未來必將成為平台化的服務。
目前,阿里、網路等企業都表示下一步方向是平台化。
螞蟻金服所致力搭建的平台,一方麵包括招財寶一類的金融產品平台,另一方麵包括雲計算、大數據服務平台。螞蟻金服人士說,「我們很清楚自己的優勢不是金融,而是包括電商、雲計算、大數據等技術。螞蟻金服希望用這些技術搭建一個基礎平台,把這些能力開放出去,供金融機構使用。」
網路亦是如此。接近網路的人士稱,未來是否向平台化發展,目前還在討論中,但可以確定的是,「網路不是金融機構,目的不是發產品,百發100的意義在於打造影響力,而非經濟效益。」
當BAT還在摸索前行時,已有嗅覺靈敏者搶佔了先機,那就是通聯數據。
通聯數據股份公司(DataYes)由曾任博時基金副董事長肖風帶隊創建、萬向集團投資成立,總部位於上海,公司願景是「讓投資更容易,用金融服務雲平台提升投資管理效率和投研能力」。該平台7月上線公測,目前已擁有130多家機構客戶,逾萬名個人投資者。
通聯數據目前有四個主要平台,分別是通聯智能投資研究平台、通聯金融大數據服務平台、通聯多資產投資管理平台和金融移動辦公平台。
通聯智能投資研究平台包括雅典娜-智能事件研究、策略研究、智能研報三款產品,可以對基於自然語言的智能事件進行策略分析,實時跟蹤市場熱點,捕捉市場情緒。可以說,和百發100類似,其核心技術在於將互聯網非結構化數據的量化使用。
通聯金融大數據服務平台更側重於專業金融數據的分析整理。它可以提供公司基本面數據、國內外主要證券、期貨交易所的行情數據、公司公告數據、公關經濟、行業動態的結構化數據、金融新聞和輿情的非結構化數據等。
假如將上述兩個平台比作「收割機」,通聯多資產投資管理平台就是「廚房」。在這個「廚房」里,可以進行全球跨資產的投資組合管理方案、訂單管理方案、資產證券化定價分析方案等。
通聯數據可以按照主題熱點或者自定義關鍵字進行分析,構建知識圖譜,將相關的新聞和股票提取做成簡潔的分析框架。例如用戶對特斯拉感興趣,就可以通過主題熱點看到和特斯拉相關的公司,並判斷這個概念是否值得投資。「過去這個搜集過程要花費幾天時間,現在只需要幾分鍾就可以完成。」王政表示。
「通聯數據就好比一家餐館,我們把所有原料搜集來、清洗好、准備好,同時准備了一個鍋,也就是大數據存儲平台。研究員和基金經理像廚師一樣,用原料、工具去『烹制』自己的策略。」王政形容道。
大數據在平台上扮演的角色,就是尋找關聯關系。人類總是習慣首先構建因果關系,繼而去倒推和佐證。機器學習則不然,它可以在海量數據中查獲超越人類想像的關聯關系。正如維克托`邁爾-舍恩伯格在《大數據時代》中所提到的,社會需要放棄它對因果關系的渴求,而僅需關注相互關系。
例如,美國超市沃爾瑪通過大數據分析,發現颶風用品和蛋撻擺在一起可以提高銷量,並由此創造了頗大的經濟效益。如果沒有大數據技術,誰能將這毫無關聯的兩件商品聯系在一起?
通聯數據通過機器學習,也能找到傳統量化策略無法發現的市場聯系。其中包括各家公司之間的資本關系、產品關系、競爭關系、上下游關系,也包括人與人之間的關系,例如管理團隊和其他公司有沒有關聯,是否牽扯合作等。
未來量化研究員是否將成為一個被淘汰的職業?目前研究員的主要工作就是收集整理數據,變成投資決策,而之後這個工作將更多由機器完成。
「當初醫療科技發展時,人們也認為醫生會被淘汰,但其實並不會。同理,研究員也會一直存在,但他們會更注重深入分析和調研,初級的數據搜集可以交給機器完成。」王政表示。
但當未來大數據平台並廣泛應用後,是否會迅速擠壓套利空間?這也是一個問題。回答根據網上資料整理