跳至內容

極限學習機

維基百科,自由的百科全書

極限學習機英文:Extreme Learning Machines,縮寫ELM),又名超限學習機,為人工智能機器學習領域中的一種人工神經網絡模型,是一種求解單隱層前饋神經網路的學習演算法。極限學習機是用於分類、回歸、聚類、稀疏逼近、壓縮和特徵學習的前饋神經網絡,具有單層或多層隱層節點,其中隱層節點的參數(不僅僅是將輸入連接到隱層節點的權重)不需要被調整。這些隱層節點可以隨機分配並且不必再更新(即它們是隨機投影但具有非線性變換),或者可以從其祖先繼承下來而不被更改。在大多數情況下,隱層節點的輸出權重通常是一步學習的,這本質上相當於學習一個線性模型。「超限學習機」(ELM)的名稱是由其主要發明者黃廣斌教授及其他學者共同商議後賦予此類模型的。

據其發明者稱,這些模型能夠產生良好的泛化性能,並且比使用反向傳播訓練的網絡快數千倍[1]。研究表明這些模型在分類和回歸應用中一般都可以勝過Support Vector Machines (SVM, 支持向量機)。[2] [3] [4]

歷史

[編輯]

2001-2010年,ELM研究主要集中在「廣義」單隱層前饋神經網路(Single-Hidden-Layer Feedforward Networks, SLFNs)的統一學習框架,包括但不限於Sigmoid網路、Radial Basis Function (RBF)網路、閾值網路[5]、三角網路、模糊推理系統、傅里葉級數[6] [7]、 拉普拉斯變換、小波網路[8]等。這些年取得的主要成果之一是在理論上成功地證明了 ELM 的通用逼近和分類能力[9] [10] [11]

從 2010 年到 2015 年,ELM 研究擴展到統一的學習框架,統一了核學習(Kernel Learning)的、SVM 和一些典型的特徵學習方法,如主成分分析 (Principal Component Analysis, PCA) 和非負矩陣分解 (Non-Matrix Factorization, NMF)。研究表明,與 ELM 相比,SVM 實際上提供了次優解決方案。ELM可以提供白盒(White-Box)內核映射,這是通過 ELM 隨機特徵映射實現的,而不是 SVM 中使用的黑盒(Black-Box)內核。 PCA 和 NMF 可以被視為ELM的隱層使用線性節點的特殊情況。[12] [13]

從 2015 年到 2017 年,越來越多的ELM研究開始聚焦於多層實現[14] [15]。此外,自 2011 年以來,ELM理論得到越來越多的生物學研究發現的驗證。[16] [17] [18]

從2017年開始,為了克服訓練LU分解過程中的低收斂問題,基於Hessenberg分解和QR分解的正則化方法開始受到關注[19] [20]

2017年,Google Scholar在其「經典論文:過去10年時間考驗的文章」,有兩篇 ELM 論文被列入「2006 年人工智能前 10 名」,分別排名第 2 和第 7 位。

特點

[編輯]

傳統的前饋神經網絡(如BP神經網絡)需要人為設置大量的網絡訓練參數,此算法卻只需要設定網絡的結構,而不需設置其他參數,因此具有簡單易用的特點。其輸入層到隱藏層的權值是一次隨機確定的,算法執行過程中不需要再調整,而隱藏層到輸出層的權值只需解一個線性方程組來確定,因此可以提升計算速度。

開發

[編輯]

極限學習機的名稱來自新加坡南洋理工大學黃廣斌教授所建立的模型[1]。黃教授指出,此算法的泛化性能良好,且其學習速度比運用反向傳播算法訓練的速度要快上1000倍[1]

算法

[編輯]

給定一個單隱層的ELM,假設第個隱層節點的輸出函數是:, 其中是第個隱層節點的參數。有個隱層節點的單隱層ELM的輸出函數是:

, 其中 是第個隱層節點的輸出權值。

是ELM的隱層輸出映射向量。給定個訓練樣本,ELM的隱層輸出映射矩陣是:

期望的訓練數據目標矩陣是:

一般而言,ELM是一種正則化神經網絡,但其具有未調整的隱層映射(由隨機隱層節點、內核或其它實現形成),其目標函數為:

其中 .

在ELM中,可以使用 的不同組合,並由此產生對應於回歸、分類、稀疏編碼、壓縮、特徵學習和聚類等的不同學習算法。

作為一個特例,最簡單的ELM訓練算法學習模型可以簡化為(對於單隱層 Sigmoid 神經網絡):

其中 W1是輸入層到隱層的權值(包括隱層節點的參數),是隱層節點的輸出函數(或者常稱為激勵函數,或基函數),W2是隱層到輸出層的權值(隱層的輸出權值)。ELM算法可以表達為:

  1. 隨機產生W1(比如高斯噪聲);
  2. 基於最小二乘法估算W2

結構

[編輯]

在大多數情況下,ELM 用於單隱層前饋網絡 (SLFN),包括但不限於Sigmoid網絡、RBF網絡、閾值網絡、模糊推理網絡、複雜神經網絡、小波網絡、傅里葉變換、拉普拉斯變換等。 由於ELM可以有對應於回歸、分類、稀疏編碼、壓縮、特徵學習和聚類的不同算法實現,多個 ELM組合可以用於形成多隱層網絡、分層網絡或深度學習。

和傳統神經網絡不一樣的是ELM 中的隱節點是一個計算元素(computing element),不需要將其視為經典神經網絡中的神經元。ELM 中的隱節點可以是經典的人工神經元、數學和信號系統中的基函數,也可以是一些隱節點形成的子網絡。

理論

[編輯]

發表研究證明了 ELM 的通用逼近和分類能力[2][3]。特別是,黃廣斌和他的團隊使用了將近七年時間(2001-2008)對ELM的通用逼近能力理論的嚴格證明[9][10][11]

通用逼近能力

[編輯]

理論上,任何非常量分段連續函數都可以用作 ELM 隱層節點的激活函數,這樣的激活函數不必是可微分的。如果調整隱層節點的參數可以使單隱層前饋網絡逼近任何目標函數,那麼隱層節點參數可以根據任何連續分佈概率隨機生成,並且有適當的輸出權重 使得成立的概率為 1。[9][10][11]

通用分類能力

[編輯]

給定任何非常量分段連續函數作為 SLFNs 中的激活函數,如果調整隱層節點的參數可以使 SLFNs 逼近任何目標函數 ,那麼具有隨機隱層映射的 SLFNs 可以分開任意形狀的任意不相交區域。[2][9][10]

神經元(基函數)

[編輯]

ELM隱層節點可以使用廣泛的非常量分段連續函數做為輸出函數(從數值分析上講,基函數):

實數域

[編輯]

Sigmoid function:

Fourier function:

Hardlimit function:

Gaussian function:

Multiquadrics function:

Wavelet: ,其中是單母小波函數.

複數域

[編輯]

Circular functions:

Inverse circular functions:

Hyperbolic functions:

Inverse hyperbolic functions:

參見

[編輯]

參考資料

[編輯]
  1. ^ 1.0 1.1 1.2 Huang, Guang-Bin; Zhu, Qin-Yu; Siew, Chee-Kheong. Extreme learning machine: theory and applications. Neurocomputing. 2006, 70 (1): 489–501. doi:10.1016/j.neucom.2005.12.126. 
  2. ^ 2.0 2.1 2.2 Huang, Guang-Bin; Zhou, Hongming; Ding, Xiaojian; Zhang, Rui. Extreme Learning Machine for Regression and Multiclass Classification. IEEE Transactions on Systems, Man, and Cybernetics - Part B: Cybernetics. 2012, 42 (2): 513–529. PMID 21984515. doi:10.1109/tsmcb.2011.2168604. 
  3. ^ 3.0 3.1 Huang, Guang-Bin. What are Extreme Learning Machines? Filling the Gap Between Frank Rosenblatt's Dream and John von Neumann's Puzzle. Cognitive Computation. 2015, 7 (3): 263–278. doi:10.1007/s12559-015-9333-0. 
  4. ^ Huang, Guang-Bin. An Insight into Extreme Learning Machines: Random Neurons, Random Features and Kernels. Cognitive Computation. 2014, 6 (3): 376–390. doi:10.1007/s12559-014-9255-2. 
  5. ^ Huang, Guang-Bin; Zhu, Qin-Yu; Mao, K. Z.; Siew, Chee-Kheong; Saratchandran, P.; Sundararajan, N. Can Threshold Networks Be Trained Directly?. IEEE Transactions on Circuits and Systems-II: Express Briefs. 2006, 53 (3): 187–191. doi:10.1109/tcsii.2005.857540. 
  6. ^ Huang, Guang-Bin; Chen, Lei; Siew, Chee-Kheong. Universal Approximation Using Incremental Constructive Feedforward Networks with Random Hidden Nodes. IEEE Transactions on Neural Networks. 2006, 17 (4): 879–892. PMID 16856652. doi:10.1109/tnn.2006.875977. 
  7. ^ Rahimi, Ali; Benjamin Recht. Weighted Sums of Random Kitchen Sinks: Replacing Minimization with Randomization in Learning. Advances in Neural Information Processing Systems. 2008. 
  8. ^ Cao, Jiuwen; Lin, Zhiping; Huang, Guang-Bin. Composite Function Wavelet Neural Networks with Extreme Learning Machine. Neurocomputing. 2010, 73 (7): 1405–1416. doi:10.1016/j.neucom.2009.12.007. 
  9. ^ 9.0 9.1 9.2 9.3 Huang, Guang-Bin; Chen, Lei; Siew, Chee-Kheong. Universal Approximation Using Incremental Constructive Feedforward Networks with Random Hidden Nodes. IEEE Transactions on Neural Networks. 2006, 17 (4): 879–892. PMID 16856652. doi:10.1109/tnn.2006.875977. 
  10. ^ 10.0 10.1 10.2 10.3 Huang, Guang-Bin; Chen, Lei. Convex Incremental Extreme Learning Machine. Neurocomputing. 2007, 70 (16): 3056–3062. doi:10.1016/j.neucom.2007.02.009. 
  11. ^ 11.0 11.1 11.2 Huang, Guang-Bin; Chen, Lei. "Enhanced Random Search Based Incremental Extreme Learning Machine. Neurocomputing. 2008, 71 (16): 3460–3468. doi:10.1016/j.neucom.2007.10.008. 
  12. ^ He, Qing; Jin, Xin; Du, Changying; Zhuang, Fuzhen; Shi, Zhongzhi. "Clustering in Extreme Learning Machine Feature Space. Neurocomputing. 2014, 128: 88–95. doi:10.1016/j.neucom.2012.12.063. 
  13. ^ Kasun, Liyanaarachchi Lekamalage Chamara; Yang, Yan; Huang, Guang-Bin; Zhang, Zhengyou. Dimension Reduction With Extreme Learning Machine. IEEE Transactions on Image Processing. 2016, 25 (8): 3906–3918. PMID 27214902. doi:10.1109/tip.2016.2570569. 
  14. ^ Huang, Guang-Bin; Bai, Zuo; Kasun, Liyanaarachchi Lekamalage Chamara; Vong, Chi Man. Local Receptive Fields Based Extreme Learning Machine. IEEE Computational Intelligence Magazine. 2015, 10 (2): 18–29. doi:10.1109/mci.2015.2405316. 
  15. ^ Tang, Jiexiong; Deng, Chenwei; Huang, Guang-Bin. Extreme Learning Machine for Multilayer Perceptron. IEEE Transactions on Neural Networks and Learning Systems. 2016, 27 (4): 809–821. PMID 25966483. doi:10.1109/tnnls.2015.2424995. 
  16. ^ Barak, Omri; Rigotti, Mattia; Fusi, Stefano. The Sparseness of Mixed Selectivity Neurons Controls the Generalization-Discrimination Trade-off. Journal of Neuroscience. 2013, 33 (9): 3844–3856. PMID 6119179. doi:10.1523/jneurosci.2753-12.2013. 
  17. ^ Rigotti, Mattia; Barak, Omri; Warden, Melissa R.; Wang, Xiao-Jing; Daw, Nathaniel D.; Miller, Earl K.; Fusi, Stefano. "The Importance of Mixed Selectivity in Complex Cognitive Tasks. Nature. 2013, 497 (7451): 585–590. PMID 4412347. doi:10.1038/nature12160. 
  18. ^ Fusi, Stefano; Miller, Earl K; Rigotti, Mattia. "Why Neurons Mix: High Dimensionality for Higher Cognition. Current Opinion in Neurobiology. 2015, 37: 66–74. doi:10.1016/j.conb.2016.01.010. 
  19. ^ Kutlu, Yakup Kutlu; Yayik, Apdullah; Yıldırım, Esen; Yıldırım, Serdar. LU triangularization extreme learning machine in EEG cognitive task classification. Neural Computation and Applications. 2017, 31 (4): 1117–1126. doi:10.1007/s00521-017-3142-1. 
  20. ^ Yayık, Apdullah Yayık; Kutlu, Yakup; Altan,Gökhan. Regularized HessELM and Inclined Entropy Measurement for Congestive Heart Failure Prediction (PDF). arXiv.org. [2019]. (原始內容存檔 (PDF)於2021-11-19). 

外部連結

[編輯]