午夜毛片免费看,老师老少妇黄色网站,久久本道综合久久伊人,伊人黄片子

復(fù)雜電子設(shè)備故障預(yù)測的方法與流程

文檔序號:11155770閱讀:364來源:國知局

本發(fā)明涉及故障預(yù)測技術(shù)領(lǐng)域,具體涉及一種復(fù)雜電子設(shè)備故障預(yù)測的方法。



背景技術(shù):

目前最常見的故障預(yù)測的方法有:

1)趨勢圖分析法

該方法通過趨勢分析來掌握復(fù)雜電子設(shè)備的運行狀態(tài)。但是,由于影響復(fù)雜電子設(shè)備運行狀態(tài)的原因很多,一旦某部分的統(tǒng)計規(guī)律發(fā)生變化,該方法無法對其未來的運行狀態(tài)進行預(yù)測。

2)曲線擬合法

該方法只適合于曲線的參數(shù)方程比較明確的預(yù)測工作,對于一些復(fù)雜電子設(shè)備具有的非線性、時變性等特點,很難建立合適的曲線方程,預(yù)測效果并不理想。

3)時間序列法

該方法對于線性、平穩(wěn)隨機時間序列的預(yù)測能夠起到較好的預(yù)測效果,應(yīng)用范圍受到限制。

4)基于灰色理論的預(yù)測方法

該方法僅適用于有一定上升或下降趨勢的弱隨機性時間序列的預(yù)測,對于復(fù)雜電子設(shè)備中隨機性較強的系統(tǒng)進行預(yù)測時,還需進一步改進。

5)人工神經(jīng)網(wǎng)絡(luò)預(yù)測方法

人工神經(jīng)網(wǎng)絡(luò)以其獨特的聯(lián)想、記憶、存儲和學習功能以及高度的非線性映射能力在設(shè)備的故障診斷和故障預(yù)測中被廣泛應(yīng)用。但是,在實際應(yīng)用中也存在著以下問題:

a)訓練樣本的獲取常常存在一定困難,神經(jīng)網(wǎng)絡(luò)的泛化能力有待提高;

b)神經(jīng)網(wǎng)絡(luò)的收斂速度和收斂性無法保證;

c)神經(jīng)網(wǎng)絡(luò)的訓練容易陷入局部最小。



技術(shù)實現(xiàn)要素:

(一)要解決的技術(shù)問題

本發(fā)明要解決的技術(shù)問題是:如何設(shè)計一種復(fù)雜電子設(shè)備故障預(yù)測的方法,以便能夠有效的對復(fù)雜電子設(shè)備進行故障預(yù)測。

(二)技術(shù)方案

為了解決上述技術(shù)問題,本發(fā)明提供了一種復(fù)雜電子設(shè)備故障預(yù)測的方法,所述方法包括以下步驟:首先利用差別矩陣的屬性約簡方法建立復(fù)雜電子設(shè)備最小故障診斷特征子集,并對屬性樣本進行歸一化處理;然后根據(jù)改進的遺傳算法獲得最佳神經(jīng)元初始權(quán)值和閾值;對BP神經(jīng)網(wǎng)絡(luò)進行改進,動態(tài)調(diào)整學習速率,并用改進后的訓練算法訓練網(wǎng)絡(luò)的連接強度;最后對預(yù)測的故障樣本進行反歸一化處理,得到復(fù)雜電子設(shè)備的故障樣本的預(yù)測值。

(三)有益效果

本發(fā)明利用粗糙集屬性約簡方法對樣本數(shù)據(jù)進行預(yù)處理,粗糙集理論具有很強的定性分析能力,能在保留關(guān)鍵信息的前提下對樣本數(shù)據(jù)進行約簡,達到簡化訓練樣本的目的;根據(jù)改進的遺傳算法獲得最佳神經(jīng)元初始權(quán)值和閾值,對經(jīng)典遺傳算法進行改進,以網(wǎng)絡(luò)誤差最小作為進化準則,經(jīng)過多次迭代,最后獲得BP神經(jīng)網(wǎng)絡(luò)開始訓練的初始權(quán)值和閾值;基于改進的BP神經(jīng)網(wǎng)絡(luò)訓練算法訓練網(wǎng)絡(luò)的連接強度,計算BP神經(jīng)網(wǎng)絡(luò)輸出層的預(yù)測值,為進一步縮短訓練時間,對BP神經(jīng)網(wǎng)絡(luò)進行改進,動態(tài)調(diào)整學習速率,提高了網(wǎng)絡(luò)的收斂速度。對樣本數(shù)據(jù)進行反歸一化處理,得到復(fù)雜電子設(shè)備故障樣本數(shù)據(jù)的預(yù)測值。

具體實施方式

為使本發(fā)明的目的、內(nèi)容、和優(yōu)點更加清楚,下面結(jié)合實施例,對本發(fā)明的具體實施方式作進一步詳細描述。

對于復(fù)雜電子設(shè)備,可以設(shè)為自定義的一些電子設(shè)備。

本發(fā)明實施例的復(fù)雜電子設(shè)備故障預(yù)測的方法包括以下步驟:首先利用差別矩陣的屬性約簡方法建立復(fù)雜電子設(shè)備最小故障診斷特征子集,并對屬性樣本進行歸一化處理;然后根據(jù)改進的遺傳算法獲得最佳神經(jīng)元初始權(quán)值和閾值;對BP神經(jīng)網(wǎng)絡(luò)進行改進,動態(tài)調(diào)整學習速率,并用改進后的訓練算法訓練網(wǎng)絡(luò)的連接強度;最后對預(yù)測的故障樣本進行反歸一化處理,得到復(fù)雜電子設(shè)備的故障樣本的預(yù)測值。該方法具體包括以下步驟:

S1:將采集得到的復(fù)雜電子設(shè)備的原始數(shù)據(jù)通過特征提取獲得每一個故障對應(yīng)的所有故障征兆,選取能體現(xiàn)復(fù)雜電子設(shè)備狀況的特征參數(shù)作為條件屬性,發(fā)生故障的類型作為決策屬性。對復(fù)雜電子設(shè)備的條件屬性和決策屬性進行編碼,建立復(fù)雜電子設(shè)備的決策表T。

假設(shè)C是復(fù)雜電子設(shè)備的條件屬性(是決策表T的差別矩陣,是一個n乘以n的方陣),D是復(fù)雜電子設(shè)備的決策屬性,c(w)是記錄w在屬性c(c∈C)上的值,Cij為差別矩陣中第i行第j列的元素,則差別矩陣C可表示為:

基于差別矩陣的屬性約簡方法如下:(A是屬性約簡后的條件屬性集合,C是決策表T的差別矩陣,)ak∈{cij},C0為核屬性集合)

1)定義集合B、集合Q、集合R,且初始值均為空集;

2)將核屬性集合C0中的內(nèi)容復(fù)制到集合R中;

3)求出所有包含核屬性的條件屬性集合Q;

4)差別矩陣C變?yōu)?C-Q),將條件屬性集合A中去除集合R后的內(nèi)容復(fù)制到集合B中;

5)對所有的ak∈B,計算在C中屬性出現(xiàn)次數(shù)最多的屬性ak,并將其添加到集合R中;

6)返回步驟2,直至C為空。

經(jīng)過上述處理后,集合R就是最后的約簡結(jié)果,即復(fù)雜電子設(shè)備最小故障診斷特征子集。

S2:輸入樣本歸一化處理

將S1中得到的復(fù)雜電子設(shè)備最小故障診斷特征子集作為輸入的屬性樣本。則經(jīng)過歸一化處理后得到其中,x(ii)表示歸一化前的屬性樣本值,y(ii)表示歸一化后的屬性樣本中的最大值,xmax表示屬性樣本中的最大值,xmin表示屬性樣本中的最小值。y(ii)的取值范圍是[0,1]。

將歸一化前的屬性樣本分成k組,每組有m+1個值。前m個值作為BP神經(jīng)網(wǎng)絡(luò)輸入節(jié)點的輸入值,后一個作為輸出節(jié)點的期望值,見下表1。

S3:個體編碼:

將所述復(fù)雜電子設(shè)備最小故障診斷特征子集作為輸入層神經(jīng)元。復(fù)雜電子設(shè)備的個體編碼方式選擇實數(shù)編碼,每個個體均為一個實數(shù)串,由BP神經(jīng)網(wǎng)絡(luò)輸入層與隱含層連接權(quán)值、隱含層閾值、隱含層與輸出層連接權(quán)值以及輸出層閾值4部分組成。

S4:建立適應(yīng)度函數(shù),并計算種群適應(yīng)度

根據(jù)個體得到的BP神經(jīng)網(wǎng)絡(luò)的初始權(quán)值和閾值,用訓練數(shù)據(jù)訓練BP神經(jīng)網(wǎng)絡(luò)后預(yù)測復(fù)雜電子設(shè)備系統(tǒng)輸出,把預(yù)測輸出和期望輸出之間的誤差絕對值和作為個體適應(yīng)度F,計算公式為:

上式中,n為神經(jīng)網(wǎng)絡(luò)輸出節(jié)點數(shù),dl為神經(jīng)網(wǎng)絡(luò)第l個節(jié)點的期望輸出,ol為第l個節(jié)點的預(yù)測輸出,t為系數(shù),為預(yù)設(shè)值。

S5:判斷是否滿足終止條件:

算法終止條件:如果當連續(xù)繁殖很多代的最優(yōu)BP神經(jīng)網(wǎng)絡(luò)權(quán)值的適應(yīng)值沒有變化時,則轉(zhuǎn)步驟S9,否則轉(zhuǎn)步驟S6

S6:選擇算子:

由于操作簡單,傳統(tǒng)的遺傳算法大多采用“輪盤賭”選擇算子。但是該方法一方面容易導致局部最優(yōu)而無法進化,另一方面無法體現(xiàn)個體優(yōu)劣,造成搜索精度不夠。

本發(fā)明對傳統(tǒng)遺傳算法的“選擇算子”進行改進,改進后的選擇方式可確保適應(yīng)度比平均適應(yīng)度大的一些個體一定能夠被遺傳到下一代群體中,所以該方法的選擇誤差較小。具體操作如下:

d)設(shè)S2得到的BP神經(jīng)網(wǎng)絡(luò)的權(quán)值的數(shù)目為N,每個權(quán)值的適應(yīng)度為Fs(s=1,2,…,N),計算BP神經(jīng)網(wǎng)絡(luò)的權(quán)值在下一代權(quán)值中的期望生存數(shù)目

e)用Ns的整數(shù)部分確定各個對應(yīng)BP神經(jīng)網(wǎng)絡(luò)的權(quán)值在下一代權(quán)值中的生存數(shù)目,其中表示取不大于Ns的最大整數(shù),這樣可確定下一代權(quán)值中的個權(quán)值;

f)以為各個權(quán)值新的適應(yīng)度,用“輪盤賭”選擇算子隨機確定下一代權(quán)值中還未確定的個權(quán)值。

S7

采用自適應(yīng)交叉率和變異率

本發(fā)明使用BP神經(jīng)網(wǎng)絡(luò)權(quán)值的適應(yīng)度值來衡量遺傳算法的收斂情況。對于適應(yīng)值高的解,取較低的交叉率Pc和變異率Pm,使得該解進入下一代的機會增大;對于適應(yīng)值低的解,應(yīng)取較高的交叉率Pc和變異率Pm,使該解被淘汰掉。式(4)是交叉率Pc和變異率Pm隨適應(yīng)值的變化而自適應(yīng)改變的計算方法。

其中,kc和km是小于1的常數(shù),fc是要交叉的兩個權(quán)值中適應(yīng)值大的一個,fm是要變異的權(quán)值的適應(yīng)值,fmax和分別是群體的最大適應(yīng)值和平均適應(yīng)值,表明群體的收斂程度,該值越小,表明群體已趨向收斂。

S8:如果算法執(zhí)行次數(shù)達到了進化次數(shù)的上限時群體仍不收斂,則算法停止,否則轉(zhuǎn)步驟S4。

S9:獲取BP神經(jīng)網(wǎng)絡(luò)初始值,計算BP神經(jīng)網(wǎng)絡(luò)誤差

在上述遺傳算法中,以BP神經(jīng)網(wǎng)絡(luò)誤差最小作為進化準則,經(jīng)過多次迭代操作,最后獲得一組權(quán)值和閾值,該組值是遺傳算法所能遍歷的值中網(wǎng)絡(luò)誤差最小的,作為BP神經(jīng)網(wǎng)絡(luò)的初始值。

設(shè)BP神經(jīng)網(wǎng)絡(luò)中每一個樣本p的輸入輸出模式的二次型誤差函數(shù)定義為:

系統(tǒng)的平均誤差代價函數(shù)為:

上式(5)和(6)中,P為訓練樣本的數(shù)量,L為BP神經(jīng)網(wǎng)絡(luò)輸出層的神經(jīng)元數(shù),dpk為BP神經(jīng)網(wǎng)絡(luò)輸出層節(jié)點的期望輸出,Opk為BP神經(jīng)網(wǎng)絡(luò)輸出層節(jié)點的實際輸出。

S10:動態(tài)調(diào)整學習速率:

若BP神經(jīng)網(wǎng)絡(luò)訓練初期的功效較好的學習率,對后來的訓練未必合適,因此,本發(fā)明對BP神經(jīng)網(wǎng)絡(luò)學習算法進行改進,采用動態(tài)調(diào)整學習速率的方法,使得BP神經(jīng)網(wǎng)絡(luò)的實際輸出盡可能地接近期望輸出,增加了學習算法的可靠性,縮短了BP神經(jīng)網(wǎng)絡(luò)的訓練時間。

選取BP神經(jīng)網(wǎng)絡(luò)輸出層節(jié)點的實際輸出和期望輸出的平均絕對誤差e1及其變化率e2兩個變量:

e2=e1(t)-e1(t-1) (8)

其中,e1(t)和e1(t-1)表示第t和t-1時的平均絕對值誤差。

學習速率η的表達式為:

η=f1(e1)+f2(e2) (9)

其中:

k1和k2為比例因子,調(diào)整f1和f2的比例;b1和b2為權(quán)重因子,修正f1和f2的權(quán)重。k1、k2和b1、b2的值需根據(jù)實際需要和反復(fù)實驗確定。

S11:修改BP神經(jīng)網(wǎng)絡(luò)的權(quán)值:

設(shè)BP神經(jīng)網(wǎng)絡(luò)有r個輸入節(jié)點,輸出層有v個輸出節(jié)點,隱含層有q個節(jié)點,ωgh是輸入層和隱含層節(jié)點之間的連接權(quán)值,ωhu是隱含層和輸出層節(jié)點之間的連接權(quán)值。

BP神經(jīng)網(wǎng)絡(luò)輸入層的第g個節(jié)點的輸入為netg=xg,輸出為Og=netg

隱含層的第h個節(jié)點的輸入為輸出為Oh=f(neth);輸出層的第u個節(jié)點的輸入為輸出為Ou=f(netu)。其中,g=1,2,…,r,h=1,2,…,q,u=1,2,…,v。

定義反傳誤差信號

輸出層權(quán)值的調(diào)整公式為:

Δωjk=ηδkOj (13)

隱含層權(quán)值的調(diào)整公式為:

Δωij=ηδjOi (14)

S12:判斷是否達到要求的精度:

如果達到了BP神經(jīng)網(wǎng)絡(luò)要求的精度,則執(zhí)行S13,否則執(zhí)行S9

S13:判斷是否完成訓練次數(shù):

如果完成了訓練的總次數(shù),則保存已訓練的樣本;否則執(zhí)行S9。

S14:反歸一化處理得到預(yù)測值:

針對上述BP神經(jīng)網(wǎng)絡(luò)訓練后的樣本,利用S2中的歸一化公式進行反歸一化運算,得到

其中表示復(fù)雜電子設(shè)備故障樣本的預(yù)測值。

上述方法能夠減少神經(jīng)網(wǎng)絡(luò)輸入層個數(shù),簡化神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),提高神經(jīng)網(wǎng)絡(luò)泛化能力,減少了神經(jīng)網(wǎng)絡(luò)的訓練時間;同時,利用遺傳算法的快速學習網(wǎng)絡(luò)權(quán)值得能力,擺脫了神經(jīng)網(wǎng)絡(luò)容易陷入極小點的困擾,并加快了收斂速度。

以上所述僅是本發(fā)明的優(yōu)選實施方式,應(yīng)當指出,對于本技術(shù)領(lǐng)域的普通技術(shù)人員來說,在不脫離本發(fā)明技術(shù)原理的前提下,還可以做出若干改進和變形,這些改進和變形也應(yīng)視為本發(fā)明的保護范圍。

當前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1