1000部丰满熟女富婆视频,托着奶头喂男人吃奶,厨房挺进朋友人妻,成 人 免费 黄 色 网站无毒下载

首頁 > 文章中心 > 神經(jīng)網(wǎng)絡(luò)的算法

神經(jīng)網(wǎng)絡(luò)的算法

前言:想要寫出一篇令人眼前一亮的文章嗎?我們特意為您整理了5篇神經(jīng)網(wǎng)絡(luò)的算法范文,相信會為您的寫作帶來幫助,發(fā)現(xiàn)更多的寫作思路和靈感。

神經(jīng)網(wǎng)絡(luò)的算法范文第1篇

【關(guān)鍵詞】BP算法 蟻群優(yōu)化算法 放大因子 神經(jīng)網(wǎng)絡(luò)

伴隨著近年來對于人工智能(Artificial Intelligence)研究的不斷深入,其中一項重要的分支內(nèi)容也越來越引起人們的重視,即人工神經(jīng)網(wǎng)絡(luò),這一技術(shù)研究現(xiàn)已經(jīng)廣泛的應(yīng)用到了信息處理、車輛檢測、價格預(yù)測等多個領(lǐng)域當(dāng)中。而BP網(wǎng)絡(luò)神經(jīng)算法則是應(yīng)用普及程度最高的一項神經(jīng)網(wǎng)絡(luò)內(nèi)容,然而這一傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)算法卻存在有一些較為顯著的缺陷性,如局部不足、收斂緩慢、缺乏理論指導(dǎo)等,因此有必要對傳統(tǒng)的算法進(jìn)行改進(jìn)。據(jù)此本文主要就通過對于上述問題的分析,提出了引入放大因子以及應(yīng)用蟻群優(yōu)化算法兩項改進(jìn)手段,并通過將改進(jìn)后的算法應(yīng)用到瓦斯?jié)舛葯z驗中,有效的驗證了這一算法的科學(xué)性。

1 傳統(tǒng)BP算法的缺陷

1.1 收斂緩慢

因為BP神經(jīng)網(wǎng)絡(luò)的誤差函數(shù)的曲面圖像十分復(fù)雜,因此極有可能會有一些相對較為平坦曲面的存在,在起初之時的網(wǎng)絡(luò)訓(xùn)練收斂值較大,然而伴隨著訓(xùn)練的進(jìn)行,在訓(xùn)練行進(jìn)到平坦曲面位置時,依據(jù)梯度下降法,便極有可能會發(fā)生盡管誤差值較大,然而誤差梯度值卻較小,進(jìn)而也就導(dǎo)致權(quán)值的可調(diào)整值變小,最終僅能夠采取加多訓(xùn)練次數(shù)的方式來逐漸退出目標(biāo)區(qū)域。

1.2 局部不足

盡管BP算法能夠促使均方誤差達(dá)到最小化權(quán)值與閾值,然而因為多層網(wǎng)絡(luò)結(jié)構(gòu)的均方誤差存在有極大的復(fù)雜性特點,既有可能導(dǎo)致多項局部極小值情況的出現(xiàn),從而使得算法在斂收之時,無法準(zhǔn)確的判定出是否求得最優(yōu)解。

1.3 缺乏理論指導(dǎo)

由于僅在接近于連續(xù)函數(shù)的情況時才需多層隱含層,但是在實際情況下往往是選用單層隱含層,這就會導(dǎo)致一個十分明顯的問題,即隱含層神經(jīng)元的數(shù)量大小是對網(wǎng)絡(luò)計算的復(fù)雜性是具有直接性影響的,從理論層面來說神經(jīng)元數(shù)量越多,所得到的求值才能夠越精確,然而現(xiàn)實情況往往都是依據(jù)經(jīng)驗公式,以及大量的實驗驗證來明確出相應(yīng)的隱含層神經(jīng)元數(shù)量,這必須要借助于大量的運算處理才能實現(xiàn)。

2 算法改進(jìn)

2.1 放大因子的引入

在精確性允許的前提下,為了獲得更大的幾何間隔,可放寬容錯性,為閾值增添以一定的松弛變量。但還在BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)過程當(dāng)中,因為樣本所出現(xiàn)的隨機性改變,在通過歸一化處置后,于初期學(xué)習(xí)階段,樣本的訓(xùn)練誤差較大,收斂較快,然而伴隨著訓(xùn)練的持續(xù)進(jìn)行,特別是在樣本訓(xùn)練結(jié)果無限趨近于1/0之時,這是訓(xùn)練便會達(dá)到平臺期,也就是相對停滯階段。

在將放大因子運用到實際訓(xùn)練當(dāng)中,對隱含層與輸出層當(dāng)中的權(quán)值采取調(diào)整,所產(chǎn)生的神經(jīng)網(wǎng)絡(luò)訓(xùn)練結(jié)果影響,要明顯超過輸入層和隱含層當(dāng)中權(quán)值調(diào)整所造成的影響,因而在本次研究當(dāng)中,將放大因子應(yīng)用在了隱含層和輸出層權(quán)值的調(diào)整之中。

2.2 應(yīng)用蟻群優(yōu)化算法

蟻群優(yōu)化算法是一種對離散優(yōu)化問題進(jìn)行求解的通用型框架。在某條具體路徑當(dāng)中所經(jīng)過的螞蟻數(shù)量越多,相應(yīng)的信息條件密集性也就越大,從而這一路徑被選取的概率也就越大,其呈現(xiàn)出的是一種正反饋的現(xiàn)狀情況。每一只螞蟻在僅穿過任一節(jié)點一次的情況之時,對被選用的權(quán)值節(jié)點進(jìn)行明確的記錄,從而該區(qū)域之中的節(jié)點也就組成了一組候選權(quán)值,在所有螞蟻均完成了首次選擇后,依據(jù)全局更新策略來對信息素的密度進(jìn)行更新。直至滿足于最大進(jìn)化代數(shù),也就得到了最佳的權(quán)值組合。

3 實驗分析

3.1 變量選取

考量到瓦斯?jié)舛扔绊懸蛩厮邆涞牡牟淮_定性,因此可對各類因素予以篩選,在對短期預(yù)測不造成影響的情況下,來選擇出影響力最大的因子。在瓦斯?jié)舛缺O(jiān)測的特征變量中主要包括有風(fēng)速、溫度、負(fù)壓、一氧化碳濃度、瓦斯?jié)舛取?/p>

3.2 參數(shù)選擇

依據(jù)上述特征變量內(nèi)容,此實驗的BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)便可明確為輸入層4項:風(fēng)速、溫度、負(fù)壓、一氧化碳濃度,輸出層1項:瓦斯?jié)舛?。針對以上特征變量依次選用傳統(tǒng)BP算法與改進(jìn)后的算法進(jìn)行測量,隱含網(wǎng)絡(luò)層均為1個。隱含層節(jié)點可通過下列公式予以驗證:

m=0.618*(input+output)

在這一公式當(dāng)中input與output即為輸入層與輸出層節(jié)點數(shù)量。BP神經(jīng)網(wǎng)絡(luò)算法的訓(xùn)練數(shù)共1100,預(yù)計誤差值為0.0011,其中隱含層應(yīng)用Sig mod函數(shù),在輸出層之中應(yīng)用線性函數(shù)。蟻群優(yōu)化模型最終其規(guī)模明確為600,權(quán)值區(qū)間取[-1,1],迭代次數(shù)取1100次。

3.3 結(jié)果分析

在考量到具體運用時的科學(xué)性,可編寫一項測試軟件,針對數(shù)據(jù)內(nèi)容予以計算處理,并將多次試驗所得數(shù)據(jù)信息予以對比,改進(jìn)之后的BP神經(jīng)網(wǎng)絡(luò)和傳統(tǒng)BP網(wǎng)絡(luò)其檢測精確性如表1所示。

通過觀察表1,能夠明顯的發(fā)現(xiàn),經(jīng)過改進(jìn)的BP神經(jīng)網(wǎng)絡(luò)算法其訓(xùn)練擬合度相較于傳統(tǒng)BP神經(jīng)網(wǎng)絡(luò)算法而言更高,同時準(zhǔn)確率也顯著提升了3.82%,收斂速度也有了顯著的提升,權(quán)值選取也有了理論性的指導(dǎo)。

4 結(jié)束語

總而言之,傳統(tǒng)的BP神經(jīng)網(wǎng)絡(luò)算法存在收斂速度較慢、且容易陷入到局部不足以及缺乏理論指導(dǎo)的設(shè)計陷阱,本文主要通過對放大因子的引入,使得BP神經(jīng)網(wǎng)絡(luò)算法在實際訓(xùn)練時的權(quán)值調(diào)整方式發(fā)生了轉(zhuǎn)變,進(jìn)而通過應(yīng)用蟻群優(yōu)化算法來實現(xiàn)了對于BP神經(jīng)網(wǎng)絡(luò)權(quán)值的選擇,并構(gòu)建起了相應(yīng)的神經(jīng)網(wǎng)絡(luò)模型以及改進(jìn)后的訓(xùn)練方法。最終將此改進(jìn)之后的BP神經(jīng)網(wǎng)絡(luò)算法應(yīng)用到瓦斯?jié)舛阮A(yù)測領(lǐng)域之中,其效果明顯優(yōu)于傳統(tǒng)的BP神經(jīng)網(wǎng)絡(luò)算法。

參考文獻(xiàn)

[1]楊紅平,傅衛(wèi)平,王雯等.結(jié)合面法向和切向接觸剛度的MPSO-BP神經(jīng)網(wǎng)絡(luò)算法的建模[J].儀器儀表學(xué)報,2012(08).

[2]陳樺,程云艷.BP神經(jīng)網(wǎng)絡(luò)算法的改進(jìn)及在Matlab中的實現(xiàn)[J].陜西科技大學(xué)學(xué)報(自然科學(xué)版),2014(02):45-47.

神經(jīng)網(wǎng)絡(luò)的算法范文第2篇

關(guān)鍵詞: 網(wǎng)絡(luò)流量檢測; 群智能算法; RBF神經(jīng)網(wǎng)絡(luò); 網(wǎng)絡(luò)安全

中圖分類號: TN926?34; TP393 文獻(xiàn)標(biāo)識碼: A 文章編號: 1004?373X(2016)20?0012?03

Abstract: The application of swarm intelligence optimizing neural network in network security and a network traffic detection model based on neural network algorithm are studied in this paper. QAPSO algorithm is used to optimize the basis function center and base function width of RBF neural network, and the connection weights of the output layer and the hidden layer as well. The detection model studied in this paper is analyzed by means of an example. The collected data is used to train the network traffic identification system and test its performance. The method researched in this paper is compared with the algorithms based on the conventional PSO and HPSO. The results show that the detection method has a faster recognition speed and better recognition accuracy, and can avoid the occurrence of local optimal solutions.

Keywords: network traffic detection; swarm intelligence algorithm; RBF neural network; network security

0 引 言

隨著互聯(lián)網(wǎng)技術(shù)不斷發(fā)展和普及,互聯(lián)網(wǎng)絡(luò)中的應(yīng)用和服務(wù)類型不斷增加,為了提高網(wǎng)絡(luò)安全,保護(hù)網(wǎng)民、公司企業(yè)以及政府部門等的財產(chǎn)與利益,需要對網(wǎng)絡(luò)流量進(jìn)行高效的監(jiān)測[1?2]。

RBF神經(jīng)網(wǎng)絡(luò)具有強大的非線性擬合能力,即非線性映射能力,以及自學(xué)能力,同時便于計算機實現(xiàn),因而在網(wǎng)絡(luò)流量檢測等網(wǎng)絡(luò)安全領(lǐng)域得到了廣泛應(yīng)用。但是RBF神經(jīng)網(wǎng)絡(luò)的性能特別依賴網(wǎng)絡(luò)參數(shù)選取的好壞,而傳統(tǒng)RBF神經(jīng)網(wǎng)絡(luò)參數(shù)通常由人為按經(jīng)驗或隨機選取,因此網(wǎng)絡(luò)的性能具有較強的隨機性[3?4]。

近年來,群智能優(yōu)化算法逐漸發(fā)展并得到較為廣泛的應(yīng)用,其中粒子群優(yōu)化算法是一種能夠全局優(yōu)化,具有建模速度快、收斂效率高的群智能優(yōu)化算法,然而使用常規(guī)PSO算法優(yōu)化神經(jīng)網(wǎng)絡(luò)仍然存在收斂速度和全局優(yōu)化能力不能夠達(dá)到平衡等問題[5?7]。因此本文研究一種基于量子自適應(yīng)粒子群優(yōu)化算法(QAPSO),對RBF神經(jīng)網(wǎng)絡(luò)的基函數(shù)中心[Ci]、基函數(shù)的寬度[σi]以及輸出層與隱含層的連接權(quán)值[wi]進(jìn)行優(yōu)化。

1 基于群智能優(yōu)化的神經(jīng)網(wǎng)絡(luò)算法

本文研究的QAPSO優(yōu)化算法主要分為4部分,分別為初始化種群、估計進(jìn)化狀態(tài)、控制參數(shù)自適應(yīng)以及處理變異[8]。

1.1 初始化種群

2 實例分析

為驗證本文建立基于QAPSO優(yōu)化RBF神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)流量檢測模型的性能,使用基于Libsvm軟件包的C#程序并結(jié)合數(shù)值計算軟件Matlab R2014對網(wǎng)絡(luò)流量進(jìn)行采集、計算以及分類。網(wǎng)絡(luò)流量檢測類型如表2所示。

表2 網(wǎng)絡(luò)流量檢測類型

使用常規(guī)PSO優(yōu)化算法及HPSO優(yōu)化算法對RBF神經(jīng)網(wǎng)絡(luò)進(jìn)行優(yōu)化,并建立同樣的網(wǎng)絡(luò)流量檢測模型,使用同樣的訓(xùn)練數(shù)據(jù)樣本進(jìn)行訓(xùn)練,使用同樣的測試數(shù)據(jù)樣本進(jìn)行性能測試。常規(guī)PSO優(yōu)化算法的參數(shù)為空間維度[D=24],粒子數(shù)量[N=30],最大迭代次數(shù)[tmax=200],連接權(quán)值[w=0.9~0.4],加速系數(shù)[c1]和[c2]均為2。HPSO優(yōu)化算法的參數(shù)為空間維度[D=24],粒子數(shù)量[N=30],最大迭代次數(shù)[tmax=200],連接權(quán)值[w=0.8~0.2],加速系數(shù)[c1]和[c2]均為2.5,[Vmaxd=0.5×Range]。QAPSO算法的參數(shù)為空間維度[D=24],粒子數(shù)量[N=30],最大迭代次數(shù)[tmax=200],連接權(quán)值[w=0.8~0.2],加速系數(shù)[c1]和[c2]為1.5~2.5,[Vmaxd=Range],[r1d]和[r2d]為0~1之間的隨機數(shù)。

從圖1可以看出,常規(guī)PSO優(yōu)化算法使得適應(yīng)度函數(shù)收斂到穩(wěn)定值時的迭代次數(shù)為171次,HPSO優(yōu)化算法使用了112次,而本文研究的QAPSO優(yōu)化算法只使用了76次。同時,本文研究的QAPSO優(yōu)化算法的收斂值更低,適應(yīng)度函數(shù)的值即為RBF神經(jīng)網(wǎng)絡(luò)的訓(xùn)練誤差,因此適應(yīng)度函數(shù)越小,RBF神經(jīng)網(wǎng)絡(luò)的訓(xùn)練誤差越小,性能越好。因此,本文研究的QAPSO優(yōu)化算法相比另外兩種PSO優(yōu)化算法具有更快的收斂速度和更高的收斂精度,極大地提高了RBF神經(jīng)網(wǎng)絡(luò)的泛化能力。使用本文研究的QAPSO?RBF檢測模型及常規(guī)PSO和HPSO優(yōu)化RBF算法的檢測模型對實驗數(shù)據(jù)進(jìn)行識別。表3為三種檢測模型的檢測準(zhǔn)確率與反饋率對比。圖2為三種模型的平均檢測率和反饋率對比。

通過表3的數(shù)據(jù)可以看出,本文研究的QAPSO?RBF檢測模型對12種類型網(wǎng)絡(luò)服務(wù)與應(yīng)用均有較好的識別準(zhǔn)確率和反饋率,平均識別準(zhǔn)確率達(dá)到了92.81%,比HPSO?RBF算法的平均識別準(zhǔn)確率高出3.49%,比PSO?RBF算法的平均識別準(zhǔn)確率高出6.99%。QAPSO?RBF識別算法的平均識別反饋率達(dá)到了94.81%,比HPSO?RBF算法的平均識別反饋率高出3.51%,比PSO?RBF算法的平均識別反饋率高出7.28%。可表明相比其他粒子群優(yōu)化算法,本文研究的QAPSO優(yōu)化算法在進(jìn)行多次迭代后仍然具有較好的活躍性,跳出局部最優(yōu)解,對最佳值的全局搜索能力具有非常顯著的提高,加快了算法收斂速率,提高了識別準(zhǔn)確率。

3 結(jié) 論

本文研究一種群智能優(yōu)化神經(jīng)網(wǎng)絡(luò)算法的網(wǎng)絡(luò)流量檢測模型。通過實際測試驗證,相比其他粒子群優(yōu)化算法,本文研究的QAPSO優(yōu)化算法在進(jìn)行多次迭代后仍然具有較好的活躍性,跳出局部最優(yōu)解,對最佳值的全局搜索能力具有非常顯著的提高,加快了算法收斂速率,提高了識別準(zhǔn)確率。

參考文獻(xiàn)

[1] 盧金娜.基于優(yōu)化算法的徑向基神經(jīng)網(wǎng)絡(luò)模型的改進(jìn)及應(yīng)用[D].太原:中北大學(xué),2015.

[2] 鐘建坤,周永福.群智能算法優(yōu)化神經(jīng)網(wǎng)絡(luò)在網(wǎng)絡(luò)安全的應(yīng)用研究[J].激光雜志,2015,36(4):143?146.

[3] 李博.粒子群優(yōu)化算法及其在神經(jīng)網(wǎng)絡(luò)中的應(yīng)用[D].大連:大連理工大學(xué),2005.

[4] 蔣林利.改進(jìn)的PSO算法優(yōu)化神經(jīng)網(wǎng)絡(luò)模型及其應(yīng)用研究[D].廈門:廈門大學(xué),2014.

[5] 陳偉.基于群體智能算法的人工神經(jīng)網(wǎng)絡(luò)優(yōu)化及其應(yīng)用[D].無錫:江南大學(xué),2007.

[6] 劉曉剛.群體智能算法在RBF神經(jīng)網(wǎng)絡(luò)中的應(yīng)用[D].青島:青島大學(xué),2008.

[7] 馬汝輝.基于網(wǎng)絡(luò)流量異常檢測的網(wǎng)絡(luò)安全技術(shù)研究[D].無錫:江南大學(xué),2008.

神經(jīng)網(wǎng)絡(luò)的算法范文第3篇

關(guān)鍵詞:粗糙集 遺傳算法 BP神經(jīng)網(wǎng)絡(luò) 優(yōu)化

中圖分類號:TP391 文獻(xiàn)標(biāo)識碼:A 文章編號:1007-9416(2015)03-0121-01

目前BP神經(jīng)網(wǎng)絡(luò)已經(jīng)成為應(yīng)用最為廣泛的神經(jīng)網(wǎng)絡(luò)模型之一,BP神經(jīng)網(wǎng)絡(luò)能學(xué)習(xí)和存貯大量的輸入-輸出模式映射關(guān)系,而無需事前揭示描述這種映射關(guān)系的數(shù)學(xué)方程。它的學(xué)習(xí)規(guī)則是使用最速下降法,通過逆?zhèn)鞑聿粩嗾{(diào)整網(wǎng)絡(luò)的閾值和權(quán)值,使網(wǎng)絡(luò)的誤差平方和最小。BP神經(jīng)網(wǎng)絡(luò)可以應(yīng)用于聚類、分類、預(yù)測等。神經(jīng)網(wǎng)絡(luò)需要有一定量的歷史數(shù)據(jù),通過歷史數(shù)據(jù)的訓(xùn)練,網(wǎng)絡(luò)可以學(xué)習(xí)到數(shù)據(jù)中隱含的知識。在具體問題中,要找到某些問題的一些特征,以及對應(yīng)的評價數(shù)據(jù),用這些數(shù)據(jù)來訓(xùn)練神經(jīng)網(wǎng)絡(luò)。

1 粗糙集理論優(yōu)化BP神經(jīng)網(wǎng)絡(luò)

1.1 粗糙集理論概述

S作為一個知識表達(dá)系統(tǒng)粗糙集一般形式記為:S=(U,A,V,f),其中:U為論域;A為屬性集;V為屬性值域;;B為條件屬性集合;C為決策屬性集合;是一個信息函數(shù)。

定義1:對于一個知識表達(dá)系統(tǒng)S=(U,A,V,f),滿足下列兩個條件的是條件屬性集C的約簡:

定義2:對于一個知識表達(dá)系統(tǒng)S=(U,A,V,f),設(shè),對任意集合,則X關(guān)于R的下近似集定義為:

上近似集定義為:。

定義為X的R粗糙集。上、下近似集是定義在U的冪集上的一對一元算子。集合X關(guān)于R的邊界區(qū)可表述為:。通常能夠肯定地將U中的對象劃分為X或-X兩個不關(guān)聯(lián)的子集,其對象總數(shù)等于排除X的R邊界的對象數(shù)目,即。

定義3:令P與Q是U中的等價關(guān)系,記為Q的P正域,即

Q的P正域是U中所有根據(jù)分類U/P的信息可以準(zhǔn)確地劃分到關(guān)系Q的等價類中去的對象集合。令P和Q為等價關(guān)系族,R,如果:

則稱R為P中Q不必要的,即R為P相對于Q可以約簡的。P的Q約簡簡稱為相對約簡。

1.2 RS屬性約簡算法

屬性約簡是粗糙集理論中的核心知識,也是粗糙集在本文中應(yīng)用的重要知識。在實際問題中信息是大量的這樣就會存在冗余,而且有些信息并不起決定作用,所以要對這些信息進(jìn)行篩選,刪除冗余信息,也就是要進(jìn)行屬性約簡。

首先根據(jù)數(shù)據(jù)特征確定離散化標(biāo)準(zhǔn),然后對連續(xù)特征進(jìn)行離散化,建立出決策表。決策系統(tǒng)表示條件屬性,D表示決策屬性。定義一個的矩陣,其任一元素為:

對于滿足:,或者: 且或者:。

表示區(qū)別元素的所有屬性的函數(shù),對于每個屬性指定Boole變量指定一個Boole函數(shù)用來表示;如果,指定Boole常量1,則[1]

的極小析取范式中得所有合取式是條件屬性集C的所有D約簡。每個約簡對應(yīng)一個決策算法,通過比較各決策算法的相容度選定最優(yōu)約簡。

2 利用遺傳算法優(yōu)化BP神經(jīng)網(wǎng)絡(luò)研究

BP神經(jīng)網(wǎng)絡(luò)算法缺乏全局性,因為它是一種只考慮局部區(qū)域的梯度法,這樣就容易陷于局部最優(yōu)極值。然而遺傳算法是一種全局優(yōu)化方法,它是一種基于生物進(jìn)化過程的隨機搜索的,通過變異操作和交叉很大程度減小了初始狀態(tài)的對數(shù)據(jù)的影響,將遺傳算法與BP神經(jīng)網(wǎng)絡(luò)結(jié)合可以擴大神經(jīng)網(wǎng)絡(luò)系統(tǒng)搜索解的空間,從而擺脫了算法易陷于局部最優(yōu)解的弊端,使算法具備了全局最優(yōu)解的能力。

遺傳算法優(yōu)化BP神經(jīng)網(wǎng)絡(luò)初始權(quán)重和閾值主要包括適應(yīng)度函數(shù)和染色體編碼方式的選擇,還有一些遺傳操作如選擇、交叉、變異等。這些在文獻(xiàn)[2]中有較詳細(xì)的說明。下面對基于遺傳算法優(yōu)化神經(jīng)網(wǎng)絡(luò)權(quán)值的學(xué)習(xí)過程進(jìn)行說明:

(1)初始化種群P包括交叉規(guī)模、交叉概率Pc、突變概率Pm以及權(quán)值初始化;(2)計算出每一個個體評價函數(shù),并將其排序。

按概率值選擇網(wǎng)絡(luò)個體,(為個體的適應(yīng)度),適應(yīng)度可用下面式子衡量,,

利用交叉概率Pc對個體和進(jìn)行交叉操作,產(chǎn)生新個體和;

(4)利用變異概率Pm突變產(chǎn)生的新個體;(5)將交叉操作與變異突破產(chǎn)生的新個體插入到種群P中,并計算新個體的評價函數(shù);(6)若找到了最優(yōu)解或者滿意的個體或已經(jīng)達(dá)到最大的迭代次數(shù)則算法結(jié)束,否則轉(zhuǎn)入第三(3)步進(jìn)入下一輪迭代運算,周而復(fù)始直到得到最優(yōu)解為止。如達(dá)到預(yù)先設(shè)定的性能指標(biāo)后,將最終群體中的最優(yōu)個體解碼即可得到優(yōu)化后的網(wǎng)絡(luò)連接權(quán)值系數(shù)。

3 基于粗糙集和遺傳算法的神經(jīng)網(wǎng)絡(luò)模型

種群是指一個個體表示BP神經(jīng)網(wǎng)絡(luò)的一個初始權(quán)重和閾值,所以首先,獲得初始種群;接下來利用粗糙集RS對初始種群進(jìn)行屬性約簡得到一個最小屬性約簡集,作為輸入神經(jīng)元;再通過遺傳算法來優(yōu)化網(wǎng)絡(luò)參數(shù)(初始權(quán)值、閾值),進(jìn)一步確定隱含層神經(jīng)元個數(shù),之后,通過BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練和測試得到種群的適配值;最后,再通過遺傳操作得新的種群,直到達(dá)到預(yù)定的進(jìn)化的代數(shù)為止,粗糙遺傳神經(jīng)網(wǎng)絡(luò)模型如圖1所示:

4 仿真實驗分析

利用本文提出的算法進(jìn)行仿真實驗,首先對論文獻(xiàn)[3]中利用粗糙理論進(jìn)行屬性約簡,得到、、和4個約簡,最佳約簡為,核為。

輸入層神經(jīng)元為元素,輸出層神經(jīng)元為元素,由遺傳算法優(yōu)化隱含層4個神經(jīng)元節(jié)點。采用步長法,構(gòu)造優(yōu)化BP神經(jīng)網(wǎng)絡(luò)模型,根據(jù)輸出誤差大小自動調(diào)整學(xué)習(xí)因子來加快收斂速度和減少迭代次數(shù),取步長,動態(tài)因子,網(wǎng)絡(luò)誤差小于0.03,從25個樣本中選取取前5個作為測試樣本,其余后20個作為訓(xùn)練集樣本,由遺傳算法優(yōu)化的網(wǎng)絡(luò)權(quán)值、閾值作為初始值對樣本進(jìn)行訓(xùn)練和測試。設(shè)最大迭代次數(shù)為200,當(dāng)誤差達(dá)到預(yù)定的目標(biāo)值和預(yù)先確定的最大迭代次數(shù)時訓(xùn)練停止。與此同時應(yīng)用基本BP算法對樣本進(jìn)行訓(xùn)練,兩者比較表明粗糙遺傳神經(jīng)網(wǎng)絡(luò)優(yōu)于BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)效果,網(wǎng)絡(luò)學(xué)習(xí)曲線反映出粗糙遺傳神經(jīng)網(wǎng)絡(luò)具有學(xué)習(xí)速度快、誤差小的優(yōu)點。

5 結(jié)語

本文提出了利用粗糙集的屬性約簡結(jié)合遺傳算法對BP神經(jīng)網(wǎng)絡(luò)算法進(jìn)行優(yōu)化的理論,對輸入變元進(jìn)行約簡,降低了輸入變元維數(shù)。仿真實驗結(jié)果表明,粗糙集遺傳算法優(yōu)化的BP神經(jīng)網(wǎng)絡(luò)較BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)速度快而且誤差減少。

參考文獻(xiàn)

[1]溫泉徹,彭宏,黎瓊.基于粗糙集和遺傳算法的神經(jīng)網(wǎng)絡(luò)模型研究[J].計算機工程與設(shè)計,2007(11).

神經(jīng)網(wǎng)絡(luò)的算法范文第4篇

關(guān)鍵詞: BP神經(jīng)網(wǎng)絡(luò); 非線性方程組; 迭代算法; 誤差收斂

中圖分類號: TN911?34; TP183 文獻(xiàn)標(biāo)識碼: A 文章編號: 1004?373X(2013)08?0020?03

0 引 言

神經(jīng)網(wǎng)絡(luò)具有許多優(yōu)點,如大規(guī)模并行處理、分布式存儲以及網(wǎng)絡(luò)的計算時間復(fù)雜度幾乎為零等[1],因此,神經(jīng)網(wǎng)絡(luò)的應(yīng)用已越來越廣泛。BP(Back Propagation)神經(jīng)網(wǎng)絡(luò)是采用誤差反向傳播學(xué)習(xí)算法的多層前饋神經(jīng)網(wǎng)絡(luò),它是當(dāng)前獲得廣泛應(yīng)用的模型之一。BP算法的基本思想[2?4]是: 網(wǎng)絡(luò)學(xué)習(xí)由輸入信號的正向傳播和誤差的逆向傳播兩個過程組成。正向傳播過程是指樣本信號由輸入層輸入,經(jīng)網(wǎng)絡(luò)的權(quán)重、閾值和神經(jīng)元的轉(zhuǎn)移函數(shù)作用后,從輸出層輸出。

如果輸出值與期望值之間的誤差大于預(yù)期,則轉(zhuǎn)入誤差反向傳播階段,進(jìn)行修正,即誤差通過隱層向輸入層逐層返回。網(wǎng)絡(luò)的學(xué)習(xí)訓(xùn)練過程實質(zhì)就是根據(jù)輸出值與期望值之間的誤差不斷調(diào)整網(wǎng)絡(luò)權(quán)重和閾值的過程,直到網(wǎng)絡(luò)輸出誤差減小到允許值或到達(dá)設(shè)定的訓(xùn)練次數(shù)為止。由于 BP神經(jīng)網(wǎng)絡(luò)模型具有較強的隨機性和不確定性,很多研究對BP算法進(jìn)行改進(jìn),并取得了大量的成果,具體參看文獻(xiàn)[5?6],這些算法提高了BP神經(jīng)網(wǎng)絡(luò)在實際應(yīng)用中的可靠性,使得BP神經(jīng)網(wǎng)絡(luò)的應(yīng)用范圍越來越廣泛。

神經(jīng)網(wǎng)絡(luò)求在求解非線性方程組中的應(yīng)用也有了較好的研究。文獻(xiàn)[7?9]研究了人工神經(jīng)網(wǎng)絡(luò)逼近非線性多元函數(shù)的可能性,得到了相應(yīng)于幾類特殊作用函數(shù)的神經(jīng)網(wǎng)絡(luò)逼近存在性定理, 這些定理保證了用單層神經(jīng)網(wǎng)絡(luò)逼近連續(xù)多元函數(shù)時,可達(dá)到任意的精確度。趙啟林等提出一種權(quán)值耦合的BP神經(jīng)網(wǎng)絡(luò)模型[10],吳靈敏等提出了對形式為[x=f(x)]的多元非線方程組的神經(jīng)網(wǎng)絡(luò)求解方法[11],趙華敏等利用能量函數(shù)降能的方法尋找方程組的根[12]。

這些方法對多變元非線性方程函數(shù)形式有一定的要求。孫銀慧等利用迭代BP神經(jīng)網(wǎng)絡(luò)的逼近非線性方程組的函數(shù)的反函數(shù)的方法,提出了一種通用性較強的求解方法[13]。

本文對文獻(xiàn)[13]中所提出的方法進(jìn)行了分析研究,發(fā)現(xiàn)存在誤差收斂過早導(dǎo)致無窮跌代以及收斂值并非最小值的問題,并對算法進(jìn)行了改進(jìn)。

1 迭代的ANN算法

1.1 非線性方程組

研究如下非線性方程組的數(shù)值解問題[13]:

[y=f(x)] (1)

式中:[f:RnRn;x,y∈Rn]。

假設(shè)[x0=[x1,0,x2,0,...,xn,0]T]為它的一個解,[f(x)]的反函數(shù) [x=f-1(y)]存在,則有:

[f(x0)=0, x0=f-1(0)](2) 盡管利用[f(x)=0]求解[x0]很不容易,但是若能求得[x=f-1(y)],則可由式(2)方便求得式(1)的解[x0]。雖然[x=f-1(y)]的顯式表達(dá)式同樣不易求得,但如果能夠得到其映射數(shù)據(jù),則可以利用各種擬合方法逼近[x=f-1(y)],從而得到[x0]。這種映射數(shù)據(jù)可以由[y=f(x)]很方便的得到,因而非線性方程組(1)的求解問題轉(zhuǎn)化為尋求一種好的擬合方法,利用已有的映射數(shù)據(jù)來精確逼近[x=f-1(y)],采用人工神經(jīng)網(wǎng)路(ANN)加以實現(xiàn)。

1.2 迭代的神經(jīng)網(wǎng)絡(luò)算法

1.2.1 算法簡介

文獻(xiàn)[13]中主要介紹了兩種方法,一種是簡單的ANN方法,另外一種是迭代的ANN方法,詳見文獻(xiàn)[13]。在求解算法中,給定方程組(1)的解的存在區(qū)域D,經(jīng)過其中的算法1和算法2得到的輸出 [x0′=[x1,0′,x2,0′,....,xn,0′]T]近似為方程組(1)的解[x0]。

對于誤差的衡量,由于實際計算中[x0]并不可知,無法計算解誤差[|x0-x0′|],用[Δ=||Δy||∞=max(Δyi)],其中[Δyi=|yi,0-yi,0′|,][i=1,2,...,n]來衡量,其中[y0′=f(x0′)]。此處文獻(xiàn)中的[Δ]和[Δyi]的描述有誤,本文進(jìn)行了更正。在算法2的第2個步驟中,如果 [x0′∈D],則縮小區(qū)域D,實際上根據(jù)文獻(xiàn)的實驗數(shù)據(jù)的表2,作者并沒有縮小區(qū)域D,而是改變了D,本文作者也認(rèn)為在這種情況下沒有必要縮小D,只需要根據(jù)[x0′]改變D即可,這一點也體現(xiàn)在本文提出的改進(jìn)算法里。

1.2.2 算法實驗分析

使用文獻(xiàn)[13]中的算例進(jìn)行方程組的求解:

[y1=f1(x)=2x31-x22-1=0y2=f2(x)=x1x32-x2-4=0] (3)

式中[x=[x1,x2]T,]該方程組的解為[x0=[x1,0,x2,0]T=]

[[1.234 3,1.661 5]T]。

采用兩個輸入的(10?2)BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),利用Matlab的工具箱實現(xiàn),第二層隱層神經(jīng)元節(jié)點個數(shù)為10,使用變換函數(shù)選正切S型函數(shù)(tansig);第三層為輸出層,節(jié)點個數(shù)為2,輸出層神經(jīng)元傳遞函數(shù)為purelin函數(shù),并且選Levenberg?Marquardt算法(trainlm)為BP網(wǎng)絡(luò)的學(xué)習(xí)算法,訓(xùn)練次數(shù)100次,學(xué)習(xí)誤差為0.000 1。

按照文獻(xiàn)[13]所描述的迭代算法進(jìn)行實驗,在不同初始化權(quán)重和閾值的情況下,在不同的區(qū)域D按照迭代的ANN算法進(jìn)行迭代求解。

大量的實驗結(jié)果表明,在迭代求解的過程中[Δ]的并不是直線或者曲線下降的,而是按照波浪線下降并且最后穩(wěn)定于某一個值的,也就是[Δ]可能在達(dá)到[ε]之前就不再下降,并且最后的穩(wěn)定狀態(tài)的值并一定是[Δ]的最小值。

圖1是[Δ]隨著迭代次數(shù)n的變化曲線,橫坐標(biāo)軸為n,豎坐標(biāo)軸為[Δ],在實驗過程中,D的取值為:[x1∈[1:0.01:1.5],x2∈[1.5:0.01:2]],固定網(wǎng)絡(luò)結(jié)構(gòu)和初始化參數(shù)進(jìn)行迭代,當(dāng)n=20時[Δ]達(dá)到了最小值,當(dāng)n=35以后[Δ]便不再開始變化。改變區(qū)域D的值也有相同的試驗結(jié)果。

圖2中D的取值為:

[x1∈[0:0.01:0.5], x2∈[1.5:0.01:2]]

圖3中D的取值為:

[x1∈[0:0.01:0.5], x2∈[2:0.01:2.5]]

圖4中D的取值:

[x1∈[1 000:0.01:1 000.5], x2∈[2 000:0.01:2 000.5]時的][Δ]隨著迭代次數(shù)n的變化曲線。

2 迭代的方法的改進(jìn)

根據(jù)試驗結(jié)果所標(biāo)明的[Δ]隨著迭代次數(shù)n的變化趨勢和收斂分析,原來的迭代算法會出現(xiàn)無窮迭代,或者不能找到最小[Δ]。因此對原來迭代算法進(jìn)行改進(jìn)。

(1)對[Δ]達(dá)到平穩(wěn)狀態(tài)的判斷。隨著迭代次數(shù)的增加,當(dāng)[Δ]的值不再發(fā)生變化時便中斷迭代過程以免進(jìn)入無休止的迭代求解。

(2)對[Δ]最小值的求解。由于當(dāng)[Δ]達(dá)到平穩(wěn)狀態(tài)時的值未必是最小值,因此在迭代過程中記錄[Δ]的最小值。當(dāng)[Δ]達(dá)到最小值的對應(yīng)的方程組的解被認(rèn)為是方程組的近似解。

①設(shè)寄存器 min_delta用來記錄[Δ]的最小值,寄存器min_x記錄[Δ]取最小值時方程組的解,給定區(qū)域D和允許誤差ε ,利用算法1[13]求得初步解[x0′],[Δ],用[Δ]初始化寄存器min_delta;

②根據(jù)[[x0′]]改變區(qū)域D,使得D滿足[[x0′]∈D]得到新的求解區(qū)域D;

③以D為新的求解區(qū)域,利用算法 1 求得新的解賦值給[x0′],并計算誤差 [Δ],如果[Δ]

利用改進(jìn)的算法對方程組進(jìn)行了求解,表1 為區(qū)域D分別為三種情況時實驗的結(jié)果數(shù)據(jù),[x1,0′],[x2,0′]為[Δ]為最小時所求得近似解。結(jié)果表明在不知道[D0]的情況下,即使D偏離[D0]很遠(yuǎn)時,也就是給一個任意的樣本初始點,迭代過程也能使[Δ]收斂到一個較小值。比如D的取值為:[x1∈[800,800.5],x2∈[800,800.5]]時,經(jīng)過85次迭代[Δ]達(dá)到一個穩(wěn)定值,并在n=43時,[Δ]達(dá)到最小值0.052 1,[x1,0′]=1.234 2,[x2,0′]=1.667 2。

3 結(jié) 語

本文主要研究利用BP神經(jīng)網(wǎng)絡(luò)可以逼近多變元非線性方程組的函數(shù)的反函數(shù),并利用迭代算法進(jìn)行求解方程組的根,這是是一種通用的解多變元方程組的方法。

對文獻(xiàn)[13]所提出的利用迭代神經(jīng)網(wǎng)絡(luò)求解多變元非線性方程組的方法進(jìn)行了研究和實驗分析,發(fā)現(xiàn)原算法可能由于誤差[Δ]過早收斂而出現(xiàn)無窮迭代,并且由于誤差并非一直隨迭代次數(shù)的增加直線或者曲線變小,因此收斂的誤差值并不一定是最小值。改進(jìn)算法并根據(jù)誤差[Δ]隨迭代次數(shù)的變化曲線對迭代算法進(jìn)行了改進(jìn),試驗結(jié)果表明給一個任意的樣本初始點,改進(jìn)的迭代算都能能使[Δ]收斂到一個較小值,并找出[Δ]取最小值時方程組的近似解,具有較高的工程應(yīng)用。由于網(wǎng)絡(luò)的初始化權(quán)重和閾值以及對網(wǎng)絡(luò)的迭代結(jié)果有重要的影響,神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù)的選取和優(yōu)化是值得進(jìn)一步研究的問題。

參考文獻(xiàn)

[1] 焦李成.神經(jīng)網(wǎng)絡(luò)系統(tǒng)理論[M].西安:西安電子科技大學(xué)出版社,1996:1? 25.

[2] 張立明.人工神經(jīng)網(wǎng)絡(luò)的模型及其應(yīng)用[M].上海:復(fù)旦大學(xué)出版社,1992.

[3] ABIYEV Rahib Hidayat, ALTUNKAYA Koray. Neural network based biometric personal identification with fast iris segmentation [J]. International Journal of Control, Automation, and Systems, 2009, 7 (1): 17?23.

[4] YANG Li, SONG Ma?lin. Research on BP neural network for nonlinear economic modeling and its realization based on Matlab [C]// International Symposium on Intelligent Information Technology Application. [S.l.]: [s.n.], 2009 : 505?508.

[5] 蔣蓉蓉.一種基于遺傳算法的BP網(wǎng)絡(luò)改進(jìn)方法[J].微計算機信息,2007,23(11):234?236.

[6] 王靜偉.BP神經(jīng)網(wǎng)絡(luò)改進(jìn)算法的研究[J].中國水運,2008,8 (1):157?158.

[7] CYBENKO G. Approximation by superpositions of a sigmidal function [J]. Math Contral Signals Systems, 1989, 2: 303?373.

[8] PALM G. On representation and approximation of nonlinear systems [J]. Discrete System Bid Cybernet, 1979, 34: 49?52.

[9] HECHT?NIELSEN R. Theory of the back propagation neural nerwork [C]// Proceedings of the International Joint Conference on Neural Nerworks. [S.l.]: IJCNN, 1989, 1: 593?608.

[10] 趙啟林,卓家壽.非線性方程組的耦合神經(jīng)網(wǎng)絡(luò)算法[J].河海大學(xué)學(xué)報,2000,28(5):38?40.

[11] 吳靈敏,柳重堪.用神經(jīng)網(wǎng)絡(luò)解多元非線性方程組[J].北方交通大學(xué)學(xué)報,1997,21(2):245?248.

神經(jīng)網(wǎng)絡(luò)的算法范文第5篇

用遺傳算法優(yōu)化神經(jīng)網(wǎng)絡(luò)體現(xiàn)了遺傳算法和神經(jīng)網(wǎng)絡(luò)結(jié)合的思想,遺傳算法是基于達(dá)爾文進(jìn)化論的思想,模擬生物進(jìn)化過程的計算方法。同樣,神經(jīng)網(wǎng)絡(luò)也是模擬生物大腦神經(jīng)網(wǎng)絡(luò)機制的計算模型,所以遺傳算法的研究與神經(jīng)網(wǎng)絡(luò)的研究有若干共同點。

遺傳算法和神經(jīng)網(wǎng)絡(luò)的不同點主要體現(xiàn)為:神經(jīng)網(wǎng)絡(luò)進(jìn)行的是個體的學(xué)習(xí),而遺傳算法進(jìn)行的是個體群的學(xué)習(xí);從搜索方法看,神經(jīng)網(wǎng)絡(luò)基本上是一個局部搜索方法,每次在解空間的當(dāng)前解的近鄰來搜索下一個解,遺傳算法總體上是一個全局搜索方法,其次在解空間設(shè)定一群體解,并經(jīng)過選擇淘汰,交叉和變異的方法來決定下一批搜索點。

顯然,遺傳算法和神經(jīng)網(wǎng)絡(luò)各有所長,兩者取長補短,相互結(jié)合可以形成更優(yōu)化的搜索算法,日前,國內(nèi)外正在這方面展開積極的研究。

二、GA-BP模型求解算法

(一)GA-BP模型結(jié)構(gòu)

(二)GA-BP算法描述:

1、編碼方式

在初始編碼中,采用實數(shù)進(jìn)行編碼。按照[WHI,WHO,BH,BO]的先后順序進(jìn)行編碼,其中WHI為輸入層至隱層權(quán)值向量,WHO為隱層至輸出層權(quán)值向量,BH為隱層閾值向量,BO為輸出層閾值向量。設(shè)定每一代染色體編碼長度為2、解碼方式

根據(jù)編碼順序反向分解得到最優(yōu)解,并將得到權(quán)值閾值作為初始解帶入神經(jīng)網(wǎng)絡(luò).

3、選擇操作指導(dǎo)

4、交叉操作指導(dǎo)

即在選擇的兩個染色體隨機設(shè)定兩個斷點,交叉交換對應(yīng)斷點間的基因。沒有進(jìn)行交叉操作的個體進(jìn)行直接復(fù)制。

5、變異操作指導(dǎo)

(Chromosome)隨機選擇基因位,隨機產(chǎn)生一個[0,1]的隨機數(shù)替換原染色體對應(yīng)基因位上的基因;將新個體插入到下一代種群中Pi+1,并重新計算新個體的評價函數(shù)。

算法步驟如下:

Step 1:初始化種群和染色體;

Step 2:如果已達(dá)到最大迭代次數(shù)MaxIters,或在迭代過程中最優(yōu)值連續(xù)不提高的次數(shù)達(dá)到Stag_times,迭代停止;否則轉(zhuǎn)步驟3。

Step 3:根據(jù)網(wǎng)絡(luò)樣本輸出與實際輸出,計算適應(yīng)值。

Step 5:按照BP算法計算輸入層和中間層、中間層和輸出層的權(quán)值閾值調(diào)整值。新計算新的神經(jīng)網(wǎng)絡(luò)權(quán)值閾值。根據(jù)新的權(quán)值閾值和樣本數(shù)據(jù),重新計算E。

Step 7:根據(jù)選擇概率、交叉概率以及變異概率,進(jìn)行復(fù)制、交叉、變異操作。根據(jù)遺傳算法產(chǎn)生的網(wǎng)絡(luò)權(quán)重作為神經(jīng)網(wǎng)絡(luò)模型下一次訓(xùn)練的初始權(quán)重值,返回到步驟2。

Step 8:訓(xùn)練結(jié)束,輸出滿足訓(xùn)練精度的神經(jīng)網(wǎng)絡(luò)權(quán)值閾值。

三、仿真實驗

(一)數(shù)據(jù)與參數(shù)

鑒于黃金價格的波動和以下國際宏觀經(jīng)濟指標(biāo)密切相關(guān),將美元指數(shù)、道瓊斯指數(shù)、nymex原油指數(shù)、CRB指數(shù)選入神經(jīng)網(wǎng)絡(luò)的輸入數(shù)據(jù),輸出數(shù)據(jù)為下一周的倫敦金價收盤價,從而形成GA-BP神經(jīng)網(wǎng)絡(luò)預(yù)測模型。

選取2005年1月2日至2008年6月8日的倫敦金價周收盤價及國際宏觀經(jīng)濟指標(biāo),共180周的周數(shù)據(jù)作為訓(xùn)練學(xué)習(xí)數(shù)據(jù)。選取2008年6月15日至2009年4月26日的相應(yīng)數(shù)據(jù)作為測試數(shù)據(jù)。

GA-BP算法初始染色體設(shè)置如下:從輸入層至隱層的權(quán)值為0.5,隱層至輸出層的權(quán)值為0.75;隱層和輸出層的閾神經(jīng)網(wǎng)絡(luò)參數(shù)設(shè)置如下:隱層節(jié)點范圍[3,13];最大迭代次數(shù)(Max Epochs)=500;訓(xùn)練誤差(Setting Performance)=0.01。

(二)結(jié)果與分析

采用Matlab語言在PC Pentium4/CPU3.0GHz/RAM1.0G上編程實現(xiàn)上述GA-BP算法。為了測試算法的有效性,將針對倫敦金價的預(yù)測與傳統(tǒng)BP算法預(yù)測效率及結(jié)果進(jìn)行比較。

實驗1: GA-BP算法與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)模型對網(wǎng)絡(luò)優(yōu)化比較

(1) 將本章所采用的GA-BP算法與傳統(tǒng)BP算法、RBF算法進(jìn)行比較結(jié)果(略)。GA-BP算法與傳統(tǒng)的BP算法,在迭代次數(shù)還是預(yù)測精度上均優(yōu)于后者;與 RBF算法相比,GA-BP的計算時間比RBF長,但是預(yù)測精度上要優(yōu)于后者。

(2) GA-BP算法與其他神經(jīng)網(wǎng)絡(luò)算法相比,在訓(xùn)練ANN網(wǎng)絡(luò)過時迭代次數(shù)上少,但是算法整體計算時間較長。這是因為GA收斂是依靠類似于窮舉法的啟發(fā)式搜索,再加之網(wǎng)絡(luò)結(jié)構(gòu)的復(fù)雜性,要運算的數(shù)據(jù)相當(dāng)大。GA-BP算法的權(quán)值與閾值的個數(shù)為:5×9+5+5×1+1=56,50個種群就是56×50=280,對這些數(shù)進(jìn)行編碼、解碼、交叉、變異等遺傳操作,這樣進(jìn)行一代遺傳操作相比BP算法的正、反向的一步操作,要處理的數(shù)據(jù)就相當(dāng)大,因而不可避免會出現(xiàn)搜索時間長的問題。

實驗2:GA-BP算法對倫敦黃金價格預(yù)測結(jié)果

(1) 利用GA-BP算法對2008年6月15日至2009年4月26日的倫敦金價周收盤價格作預(yù)測,GA算法經(jīng)過大約120代的搜索后染色體的平均適應(yīng)度趨于穩(wěn)定。

相關(guān)期刊更多

中國神經(jīng)腫瘤

部級期刊 審核時間1-3個月

中山大學(xué)腫瘤防治中心;中國抗癌協(xié)會神經(jīng)腫瘤專業(yè)委員會

現(xiàn)代神經(jīng)疾病

北大期刊 審核時間1-3個月

中華人民共和國國家衛(wèi)生

國際神經(jīng)病學(xué)神經(jīng)外科學(xué)

統(tǒng)計源期刊 審核時間1-3個月

中華人民共和國教育部

主站蜘蛛池模板: 大英县| 雷波县| 兴和县| 沂水县| 三江| 裕民县| 云南省| 上犹县| 介休市| 二连浩特市| 贡山| 珠海市| 德州市| 郁南县| 项城市| 崇左市| 鸡泽县| 华安县| 隆安县| 元谋县| 城步| 吉林省| 宝山区| 竹北市| 宁晋县| 普陀区| 松原市| 玛多县| SHOW| 财经| 集安市| 兴隆县| 柞水县| 黔西| 托里县| 萨嘎县| 梅州市| 茂名市| 泰兴市| 同心县| 鄄城县|