多變量時間序列極限學習機預測
發(fā)布時間:2020-10-24 16:13
時間序列不僅可以反映天文、金融、生物醫(yī)學、控制學、海洋科學等領域的發(fā)展變化過程,還可以探索其發(fā)展變化規(guī)律來預測某些現(xiàn)象。隨著時間序列分析的深入,國內(nèi)外已提出一系列線性和非線性預測方法,并取得了良好的應用效果,但其中絕大多數(shù)方法都是針對單變量時間序列預測提出的。然而現(xiàn)實生活中所采集的時間序列數(shù)據(jù)往往不是由單一因素所決定,需要綜合考慮多種因素。因此,對多變量時間序列預測進行研究更具有現(xiàn)實意義。由于多變量時間序列數(shù)據(jù)具有不同于單變量時間序列自身的特性:多噪聲、多尺度、變量相關等,現(xiàn)有的單變量時間序列預測方法無法直接預測多變量時間序列,因此研究多變量時間序列預測具有重要的理論價值。本文以極限學習機(ELM)為工具,針對多變量時間序列預測展開研究,提出三種多變量時間序列極限學習機預測模型,主要完成了如下工作:1、極限學習機在參數(shù)學習過程中僅考慮已知樣本信息,而在實際應用中樣本個數(shù)往往有限,因此ELM僅考慮有限已知樣本信息無法滿足預測準確性的需求。針對這一問題,在極限學習機的特征空間中綜合考慮特征樣本的已知信息和潛在信息,提出潛在極限學習機(LELM)預測模型。在多變量時間序列上的實驗結(jié)果表明,LELM能夠有效提高極限學習機的預測能力。2、在極限學習機預測多變量時間序列時,需將矩陣樣本轉(zhuǎn)換成向量作為模型的輸入,這極大地影響模型預測精度。針對這一問題,結(jié)合奇異值分解思想,在極限學習機隱藏層和輸出層之間增加SVD降維層,提出一種基于矩陣形式輸入的多變量時間序列極限學習機預測模型(SVDELM)。在混沌時間序列和股票時間序列上的實驗結(jié)果表明,SVDELM是一種有效的多變量時間序列預測模型。3、SVDELM和一.維極限學習機(2D-ELM)均是基于矩陣形式輸入的預測模型,然而SVDELM對特征空間樣本降維,2D-ELM在投影過程中對輸入樣本降維,都將造成原始數(shù)據(jù)信息的丟失。針對上述問題,提出一種無需對輸入樣本降維的預測模型,即改進的二維極限學習機(I2D-ELM)。實驗結(jié)果表明I2D-ELM能夠大大提高多變量時間序列預測模型的精度。
【學位單位】:福州大學
【學位級別】:碩士
【學位年份】:2016
【中圖分類】:C829.2
【部分圖文】:
多研宂者發(fā)現(xiàn),多層前反饋神經(jīng)網(wǎng)絡在訓練樣本無限多時具有通用逼近能力,??然而實際應用中的訓練集是有限的[15]。文獻[32]指出,單隱層節(jié)點個數(shù)大于或??等于訓練樣本個數(shù)時,幾乎任意非線性激勵函數(shù)都能使單隱層前饋神經(jīng)網(wǎng)絡??(SL-FNN)以零誤差逼近真值。然而其基于梯度下降法調(diào)整輸入層和隱藏層的連??接矩陣和偏置使該算法時間開銷太大。??事實上,FNN輸入層和隱藏層之間的連接矩陣和偏置在學習過程中無需??每次調(diào)整,這能大大減少FNN的學習時間代價。文獻[33]指出當給定連接矩陣??和隱層節(jié)點偏置時,若FNN具有W個隱層節(jié)點,則它能夠以任意小誤差逼近7V??個觀測值,而當隱層偏置也固定時,SL-FNN能夠在緊湊數(shù)據(jù)集中逼近任意連??續(xù)函數(shù)丨32]。??由于當給定連接矩陣和隱層節(jié)點偏置時,SL-FNN可以簡單地看成是一個??特征空間的線性系統(tǒng),為此文獻[15]提出極限學習機(ELM),其基本思路是:首??先隨機生成連接矩陣和偏置將說始數(shù)據(jù)集映射到特征空間,優(yōu)化輸出權重。I£LM??無需優(yōu)化連接矩陣和偏置使其學習速度比FNN快得多,同時還具有更好的泛化??性能。??
?-???RMSE?I?MAE??名稱?變量?ELM?WELM?LELM?|?ELM?WELM?LELM??x?0.0610?0.1205?0.0570?I?0.0494?0.1085?0.0465??Rossler?y?0.0738?0.1126?0.0693?0.0585?0.0993?0.0553??z?0.0004?0.0003?0.0004?0.0003?0.0002?0.0003??x?2.5869?5.685?2.4996?2.447?5.3822?2.3508??Chen’s?y?3.2753?7.3117?3.2311?3.164?6.6583?3.1073??z?4.7353?14.8716?4.5669?4.6951?14.0647?4.5247??a-?0.6010?4.4625?0.4611?0.4469?3.1089?0.3329??Lorentz?y?1.7163?6.9103?1.2280?|?1.2950?4.9053?0.9247??z?1.3855?7.8673?1.0021?|?1.0236?4.2422?0.7286??從表3-4、表3-5可以看出,本章所提出的潛在極限學習機(LELM)在6個??多變量時間序列共21個不同變量中有19個變量的RMSE和MAE均比ELM和??WELM低,說明本章所提出的LELM比ELM、WELM的預測效果更好。這是??因為LELM除了考慮了己知樣本信息,還考慮了潛在樣本信息,從而有效輯高??了?ELM模型的預測能力。?]>??8.5?|?I?I?I?I??
?250?300??圖3-3國農(nóng)科技??圖3-1,?3-2,?3-3分別是LELM、ELM、WELM在3種股票時間序列開盤價??的擬合曲線。從圖3-1,3-2,?3-3可以看出本章所提出的LELM在3支股票的開??盤價上預測效果均達到最好。??19??
【參考文獻】
本文編號:2854692
【學位單位】:福州大學
【學位級別】:碩士
【學位年份】:2016
【中圖分類】:C829.2
【部分圖文】:
多研宂者發(fā)現(xiàn),多層前反饋神經(jīng)網(wǎng)絡在訓練樣本無限多時具有通用逼近能力,??然而實際應用中的訓練集是有限的[15]。文獻[32]指出,單隱層節(jié)點個數(shù)大于或??等于訓練樣本個數(shù)時,幾乎任意非線性激勵函數(shù)都能使單隱層前饋神經(jīng)網(wǎng)絡??(SL-FNN)以零誤差逼近真值。然而其基于梯度下降法調(diào)整輸入層和隱藏層的連??接矩陣和偏置使該算法時間開銷太大。??事實上,FNN輸入層和隱藏層之間的連接矩陣和偏置在學習過程中無需??每次調(diào)整,這能大大減少FNN的學習時間代價。文獻[33]指出當給定連接矩陣??和隱層節(jié)點偏置時,若FNN具有W個隱層節(jié)點,則它能夠以任意小誤差逼近7V??個觀測值,而當隱層偏置也固定時,SL-FNN能夠在緊湊數(shù)據(jù)集中逼近任意連??續(xù)函數(shù)丨32]。??由于當給定連接矩陣和隱層節(jié)點偏置時,SL-FNN可以簡單地看成是一個??特征空間的線性系統(tǒng),為此文獻[15]提出極限學習機(ELM),其基本思路是:首??先隨機生成連接矩陣和偏置將說始數(shù)據(jù)集映射到特征空間,優(yōu)化輸出權重。I£LM??無需優(yōu)化連接矩陣和偏置使其學習速度比FNN快得多,同時還具有更好的泛化??性能。??
?-???RMSE?I?MAE??名稱?變量?ELM?WELM?LELM?|?ELM?WELM?LELM??x?0.0610?0.1205?0.0570?I?0.0494?0.1085?0.0465??Rossler?y?0.0738?0.1126?0.0693?0.0585?0.0993?0.0553??z?0.0004?0.0003?0.0004?0.0003?0.0002?0.0003??x?2.5869?5.685?2.4996?2.447?5.3822?2.3508??Chen’s?y?3.2753?7.3117?3.2311?3.164?6.6583?3.1073??z?4.7353?14.8716?4.5669?4.6951?14.0647?4.5247??a-?0.6010?4.4625?0.4611?0.4469?3.1089?0.3329??Lorentz?y?1.7163?6.9103?1.2280?|?1.2950?4.9053?0.9247??z?1.3855?7.8673?1.0021?|?1.0236?4.2422?0.7286??從表3-4、表3-5可以看出,本章所提出的潛在極限學習機(LELM)在6個??多變量時間序列共21個不同變量中有19個變量的RMSE和MAE均比ELM和??WELM低,說明本章所提出的LELM比ELM、WELM的預測效果更好。這是??因為LELM除了考慮了己知樣本信息,還考慮了潛在樣本信息,從而有效輯高??了?ELM模型的預測能力。?]>??8.5?|?I?I?I?I??
?250?300??圖3-3國農(nóng)科技??圖3-1,?3-2,?3-3分別是LELM、ELM、WELM在3種股票時間序列開盤價??的擬合曲線。從圖3-1,3-2,?3-3可以看出本章所提出的LELM在3支股票的開??盤價上預測效果均達到最好。??19??
【參考文獻】
相關期刊論文 前10條
1 崔兆順;;基于小波變換的網(wǎng)絡流量組合預測模型[J];計算機工程與應用;2014年10期
2 何群;李磊;江國乾;謝平;;基于PCA和多變量極限學習機的軸承剩余壽命預測[J];中國機械工程;2014年07期
3 董紅玉;陳曉云;;基于奇異值分解和判別局部保持投影的多變量時間序列分類[J];計算機應用;2014年01期
4 王杰;畢浩洋;;基于極限學習機的煙葉成熟度分類[J];煙草科技;2013年05期
5 張金良;譚忠富;;混沌時間序列的混合預測方法[J];系統(tǒng)工程理論與實踐;2013年03期
6 陳欽亞;姜德爍;;矩陣方程AX=B有解的判定和解的結(jié)構[J];安康學院學報;2012年03期
7 王新迎;韓敏;;基于極端學習機的多變量混沌時間序列預測[J];物理學報;2012年08期
8 席劍輝;王海丹;;基于改進RBF網(wǎng)絡的多變量序列建模和預測[J];信息與控制;2012年02期
9 郭創(chuàng)新;王揚;沈勇;王媚;曹一家;;風電場短期風速的多變量局域預測法[J];中國電機工程學報;2012年01期
10 張弦;王宏力;;基于Cholesky分解的增量式RELM及其在時間序列預測中的應用[J];物理學報;2011年11期
相關碩士學位論文 前2條
1 馬倩倩;多元時間序列相似性搜索算法研究[D];蘭州理工大學;2013年
2 卓飛豹;多變量時間序列的預處理和聚類研究[D];福建師范大學;2009年
本文編號:2854692
本文鏈接:http://www.lk138.cn/guanlilunwen/tongjijuecelunwen/2854692.html
最近更新
教材專著