人工智慧 - 機器學習 (Machine Learning)

人工智慧

前言

簡介

知識表達

知識學習

理論方法

搜尋優化

邏輯推論

神經網路

機率統計

實務應用

專家系統

自然語言

分群分類

程式語言

Prolog

javascript

程式實作

邏輯推論

爬山算法

基因算法

機率學習

交談程式

數字辨識

訊息

相關網站

參考文獻

最新修改

簡體版

English

機器學習中會用到包含微積分、機率統計、線性代數等數學,以下我們將介紹這些數學在機器學習方法上的角色與功能。

簡介

自動學習的理論、通常會討論到收斂的狀況,也就是在何時算式學習完成,而這個收斂狀況,在數學上就可以用函數不再變化來表示,其數學運算式表示如下:

(1)
\begin{equation} f(x) = x \end{equation}

類神經網路

機器學習中的類神經網路,主要利用到微積分的概念,幾乎所有類型的類神經網路,都是在找尋可微分函數的能量最低點,這包含了反傳遞網路 (Back Propagation Network)、自組織網路 (Self Organization Network) 與 Hopfield 網路 (Hopfield Network) 等。

其中、尤拉函數為微分運算的特徵點,因此、在許多類神經網路的模型上都會用到。

(2)
\begin{align} \frac {d}{dx} e^x = e^x \end{align}

回饋式學習

機器學習中回饋式學習,主要利用到線性代數的技巧,其中尤其是有關特徵值 (eigen value) 與特徵向量(eigen vector)的部份,
由於代表了回饋運算的極限狀況,因此、特徵向量的理論特別的重要,

特徵向量為矩陣乘法的不動點,因此也是回饋運算的極限,其表示式如下:

(3)
\begin{align} [A] \overrightarrow{X} = \lambda \overrightarrow{X} \end{align}

Facebook

Unless otherwise stated, the content of this page is licensed under Creative Commons Attribution-NonCommercial-ShareAlike 3.0 License