摘 要: 傳統(tǒng)的PID參數(shù)整定方法由于需要決策者具有較強的工程經(jīng)驗,難以處理非連續(xù),、非線性或時滯的復雜系統(tǒng),。針對這種情況,提出一種新的基于量子粒子群優(yōu)化的PID參數(shù)自整定方法,。該算法采用問題的時間絕對偏差乘積積分方程來評價粒子的適應(yīng)值,;設(shè)計一種時變變異算子,用來均衡粒子的全局和局部開發(fā)能力,。實驗結(jié)果表明,,該算法在超調(diào)量和調(diào)節(jié)時間等指標上皆優(yōu)于傳統(tǒng)粒子群優(yōu)化算法。
關(guān)鍵詞: PID參數(shù),;量子粒子群,;時變變異
0 引言
PID控制器因其原理簡單、結(jié)構(gòu)清晰和可替換性強等優(yōu)點,,備受廣大工程人員的好評[1],。然而,由于所設(shè)計控制器的效果完全取決于PID的三個參數(shù),,因此,,PID參數(shù)整定一直備受學者的關(guān)注。
根據(jù)所采用方式的不同,,已有PID參數(shù)整定方法可分為傳統(tǒng)整定方法和智能優(yōu)化方法兩類[2],。對于低階、線性和實時控制系統(tǒng),,傳統(tǒng)整定方法可以取得好的控制效果,;但是,隨著工業(yè)水平的快速發(fā)展,,實際工業(yè)生產(chǎn)中經(jīng)常會出現(xiàn)一些復雜非連續(xù),、非線性或時滯的系統(tǒng)。為了提高PID參數(shù)整定的效果,,人們嘗試將智能算法用于PID參數(shù)的整定,,典型方法如模糊推理算法[3]、神經(jīng)網(wǎng)絡(luò)方法[4],、遺傳算法[5]和粒子群優(yōu)化算法(PSO)[6-7]等,。
量子粒子群優(yōu)化算法[8](Quantum behaved Particle Swarm Optimization,QPSO)是孫俊等人在2004年提出的一種改進型粒子群優(yōu)化算法,。相對傳統(tǒng)粒子群優(yōu)化算法[9],,該算法在保留結(jié)構(gòu)簡單和易于執(zhí)行等優(yōu)點的基礎(chǔ)上,顯著提高了粒子的搜索能力,。本文將量子粒子群優(yōu)化算法用于自動調(diào)整PID的參數(shù),,提出一種改進的量子粒子群自整定方法,。
1 PID參數(shù)的改進量子粒子群自整定方法
1.1 粒子編碼及初始種群
本文將PID控制器三個參數(shù)作為粒子群優(yōu)化三個決策變量,并進行實數(shù)編碼,,也就是說將每一個粒子看作一個三維空間向量即:
xi=(xi1,,xi2,xi3)=(kip,,kii,,kid)
運行粒子群算法之前,本文先用傳統(tǒng)的Z-N整定法得到一個參數(shù)整定結(jié)果,,并將該結(jié)果作為一個參考范圍,,用來確定每一維決策變量的取值范圍。出于實際考慮,,粒子位置不可能出現(xiàn)負數(shù),,所以粒子搜索空間設(shè)定如下:
其中,,、
和
為Z-N整定法得到的參數(shù)參考值,,若迭代過程中粒子位置超出上述邊界,則取邊界值,。
1.2 適應(yīng)度函數(shù)的選取
針對PID參數(shù)自整定問題,,需要確定一個用來判定PID控制效果的性能指標。本文選取時間絕對偏差乘積積分方程(ITAE)作為評價指標,,計算公式如下:
利用增量式的PID控制算法將PID控制器的三個控制參數(shù)KP,、KI和KD作為系統(tǒng)輸入,并以系統(tǒng)響應(yīng)曲線確定的J值作為響應(yīng)粒子的適應(yīng)值,。
1.3 一致時變變異算子
為了均衡算法的全局和局部搜索能力,,給出一種時變變異算子,同時調(diào)節(jié)粒子的變異概率和變異范圍,。所提變異算子的偽代碼如下:
FOR i=1 to N//*N為粒子群規(guī)模*//
IF pm=e(-2×t/Tmax)>rd//*rd為間隨機數(shù)*//
d=rand(1,,3)//*在{1,2,,3}中隨機選擇一維*//
xid=xid+N(0,1)×rang//*N(0,,1)為標準高斯分布函數(shù)*//
ENDIF
ENDFOR
可以看出,,在算法初期階段,粒子群中所有粒子將受變異算子的影響,,并且每個粒子允許在整個決策空間中變異,,因此,在初始階段算法具有好的全局探索能力,。隨著迭代次數(shù)的增加,,變異算子的影響逐漸變?nèi)酰虼耍诘笃谒惴▽⒕哂泻玫木植块_發(fā)能力,。
1.4 算法執(zhí)行步驟
本文所提改進算法的流程如下:
?。?)根據(jù)Z-N方法確定KP、KI和KD的取值范圍,,隨后在取值范圍內(nèi)隨機初始化N個粒子,;
(2)初始化粒子的自身位置為其個體最優(yōu)點,,粒子群中最好位置為粒子的全局最優(yōu)點,;
(3)計算每個粒子的平均最優(yōu)位置:
Ait=(c1r1Pit+c2r2Pgt)/(c1r1+c2r2)(3)
其中,,Pit=(P ti,,1,P ti,,2,,P ti,3)為到目前t時刻第i個粒子發(fā)現(xiàn)的最好位置,,即通常說的微粒個體最優(yōu)點,;Pgt=(P tg,1,,P tg,,2,P tg,,3)為到目前t時刻所有粒子發(fā)現(xiàn)的最好位置,,即通常說的粒子全局最優(yōu)點;c1和c2為學習因子,,r1和r2為服從均勻分布U(0,,1)的隨機數(shù)。
?。?)更新每個粒子的位置:
其中,,參數(shù)
為收縮-擴張系數(shù),為保證粒子收斂,,本文取0<
<1.782,;參數(shù)u為服從均勻分布U(0,1)的隨機數(shù),;N為粒子群的規(guī)模,。
(5)執(zhí)行一致變異算子,;
?。?)利用式(1)計算每個粒子的適應(yīng)值,;
(7)更新粒子的個體最優(yōu)點和全局最優(yōu)點,;
?。?)判斷是否達到預設(shè)的算法終止條件,如果滿足,,則終止算法并輸出結(jié)果,,否則返回步驟(3)。
2 實驗仿真
為了驗證上述改進量子粒子群優(yōu)化算法在PID控制上的優(yōu)越性,,本文利用Simulink良好的模擬能力,,進行PID控制器的參數(shù)優(yōu)化與模擬。
被控對象如下:
圖1給出了Simulink開發(fā)的仿真系統(tǒng),。
2.1 參數(shù)設(shè)置
設(shè)置模型輸入信號為系統(tǒng)階躍響應(yīng),,采樣周期為0.01 s。分別運用改進量子粒子優(yōu)化算法和基本PSO算法,,比較兩者所產(chǎn)生參數(shù)的控制效果,。兩種算法采用相同的種群規(guī)模20以及迭代次數(shù)50。
2.2 結(jié)果分析
利用本文所提改進算法和基本PSO算法,,分別優(yōu)化問題30次,,表1和表2出示了兩者算法所得的統(tǒng)計結(jié)果??梢钥闯?,本文所提算法性能明顯優(yōu)于基本PSO算法,其所得最差結(jié)果(即適應(yīng)值最大的解)也優(yōu)于基本粒子群優(yōu)化算法所得最優(yōu)結(jié)果(即適應(yīng)值最小的解),。進一步,,圖2和圖3展示了某次實驗時兩種算法所得最優(yōu)參數(shù)對應(yīng)的控制響應(yīng)曲線。
可以看出,,本文算法所得控制參數(shù)展示了更好的控制效果,,在超調(diào)量和調(diào)節(jié)時間等指標上皆優(yōu)于傳統(tǒng)PSO算法。
3 結(jié)論
本文將量子粒子群優(yōu)化算法用于自動調(diào)整PID的三個控制參數(shù),,通過采用一致時變變異算子均衡粒子的全局和局部開發(fā)能力,,提出一種改進的PID參數(shù)量子粒子群自整定方法。利用Simulink對系統(tǒng)進行仿真,,并與基本PSO算法進行比較,,實驗驗證了所提算法的有效性。
參考文獻
[1] 陶永華.新型PID控制及其應(yīng)用[M].北京:機械工業(yè)出版社,,2003.
[2] 安鳳栓,??×?,蘇丕朝,,等.基于改進粒子群優(yōu)化算法的PID控制器參數(shù)優(yōu)化[J].工礦自動化,2010(5):54-57.
[3] 朱穎合,,薛凌云,,黃偉.基于自組織調(diào)整因子的模糊PID控制器設(shè)計[J].系統(tǒng)仿真學報,2011,,23(12):2732-2737.
[4] 杜海樹,,楊智,邱熔勝,,等.神經(jīng)智能PID控制算法應(yīng)用[J].甘肅工業(yè)大學學報,,1999,25(3):72-76.
[5] 周洪波,,齊占慶,,衡強,等.一種改進的遺傳算法及其在PID控制中的應(yīng)用[J].控制工程,,2007,,14(6):589-591.
[6] 王介生,王金城,,王偉.基于粒子群算法的PID參數(shù)自整定[J].控制與決策,,2005,20(1):73-76.
[7] 孫慧,,楊守義,,穆曉敏.NC-OFDM系統(tǒng)導頻設(shè)計的離散粒子群算法[J].電子技術(shù)應(yīng)用,2014,,40(7):99-102.
[8] 孫俊.量子行為粒子群優(yōu)化算法研究[D].無錫:江南大學,,2009.
[9] KENNEDY J, EBERHART R. Particle swarm optimization[C]. Proceedings of the 1995 IEEE International Conference on Neural Networks,, 1995:1942-1948.