機器學習與人工神經網路(二):深度學習(Deep Learning)
文章推薦指數: 80 %
廣泛地說,深度學習是指具有層次性的機器學習法,能透過層層處理將大量無序的訊號漸漸轉為有用的資訊並解決問題。
但通常提到深度學習,人們指的是一種特定 ...
人工智慧&電腦、資料科學 尖端科技&材料
2016年12月13日2018年08月03日
CASEPRESS
AI,AlphaGo,人工智慧,人工神經網絡,機器學習,深度學習
(Source:Zapp2PhotofromShutterstock)
■戰勝圍棋九段的GoogleAlphaGo正是以深度學習作為核心。
比起一般的機器學習,深度學習是如何有深度呢?
撰文|陳奕廷
ImageNet是一個致力推動電腦視覺(ComputerVision)相關研究的組織,其收錄了千萬張照片,每一張都手動標明照片內的物品。
ImageNet每年都舉辦影像辨識競賽,來自各國學界和業界的團隊在其中一較高下,看誰的人工智慧最能準確地標註照片。
2012年之前,主宰排行榜的團隊主要都是使用經典的影像處理方法,分析並比較照片中的某些特徵。
2012年,來自加拿大的團隊採用「深度學習」,將錯誤率從26%大幅下拉至16%[參1],成為當年冠軍。
像一陣旋風一樣,從此大部分的團隊改用深度學習。
如今,深度學習締造了3.6%的佳績,甚至比人腦的辨識率還要高!
●深度學習(DeepLearning)是什麼?
廣泛地說,深度學習是指具有層次性的機器學習法,能透過層層處理將大量無序的訊號漸漸轉為有用的資訊並解決問題。
但通常提到深度學習,人們指的是一種特定的機器學習法─「深度神經網路」(DeepNeuralNetwork)。
在同系列的文章我們曾經介紹過人工神經網路及其原理,它包含許多神經元,有些負責接受資料,有些負責傳遞資料。
以手寫數字辨識為例,這個神經網路包含三層神經元,除了輸入和輸出層外,中間有一層隱藏層(意指不參與輸入或輸出,隱藏於內部),傳遞並處理資料。
其實,隱藏層可以有一層以上,而複數個隱藏層的神經網路通常被稱為深度神經網路[註1]。
圖一B是一個深度神經網路示意圖,也許只有兩個隱藏層看起並沒有很深,但在實務上神經網路可以高達數十層至數百層,非常具有「深度」。
圖一:A.「淺」神經網路,只有一層隱藏層。
B.深度神經網路,有兩層隱藏層。
(圖片來源:StanfordDeepLearningLab)
●為什麼需要深度?
從手寫數字辨識的例子中,我們提到的一個單一隱藏層的簡單神經網路就能達到97%以上的準確率,若加以改進,甚至能達到99%以上[參2]。
為何辨識照片經過多年的努力還是只有接近97%的正確率呢?首先,相較於只有28*28個像素的手寫數字,照片通常有500*500個像素。
再者,手寫數字中每個像素只有0和1兩種可能,但照片卻有256種,而且RGB三色都需要這麼多。
最後,數字只有0到9共10種可能性,而照片裡面的物品可以是任意的,幾乎有無限多的可能性。
不管是輸入或是輸出,變數都巨大許多,也因此,我們需要尺度更大的神經網路。
尺度越大,代表的是神經網路中的神經元需要更多,但不一定代表需要更深的網路。
同樣100個神經元,我們可以將它分為1層100個神經元,也可以分成10層10個神經元。
科學家曾做過實驗,在一個語音辨識的測驗中,無論是淺的或深度神經網路,辨識率都隨著神經元數目的增加而成長。
但是在相同數目的神經元時,深度神經網路的表現總是比較好[參3],因此獲得廣泛應用。
●深度學習背後的祕密
其實,數學上可以證明,如果我們有無限多個神經元,任何深度神經網路都可以等效於一個單層的神經網路。
但你我都知道,現實世界中不存在「無限」個
神經元。
實務上,神經元越少越能降地計算成本,而深度學習能在這一點上幫助我們。
許多數學家曾嘗試解釋為什麼多層通常比單層好,至今仍沒有定論。
美國哈佛大學和麻省理工學院物理系教授HenryLin及MaxTegmark提出一個猜想[參4],認為這和對稱性與結構性有關。
大自然充滿著結構性:歷史由人構成,人由細胞組成,細胞由原子組成。
在每一個階級都有不同的特徵,需要不同的理論來描述。
就像儘管我們找出物理中的大統一理論,仍不能用此解釋川普為什麼會當選,而是需要政治學和社會學。
單層網路就像大統一理論,深度結構就像現有的學科架構。
大自然也充滿著對稱性,例如在辨識人臉時,可以利用人的左右對稱。
在單層的神經網路,左眼和右眼會被當作不相干的東西分開處理。
但在深度學習中,神經網路可能就以眼睛作為一個特徵來比較,大大簡化計算的複雜度。
這兩位教授認為,深度學習因為具有這些特質(圖二),相較於單層結構是一個比較接近自然的結構,所以表現優良。
圖二:在人臉辨識中深度學習展現了結構性。
(來源:參考資料[5])深度學習是具有多層結構的人工神經網路,除了語音和影像辨識之外,已被廣泛運用在文字翻譯、線上廣告、推薦系統……等。
幾個月前戰勝韓國圍棋大師李世石的GoogleAlphaGo也運用了深度學習。
我們之後會討論到GoogleAlphaGo中使用的人工神經網路相關技術。
[註1]深度學習需要的隱藏層數目因人而異,並沒有嚴格的定義。
有些人認為十層才算是深度學習;有些人認為一層就算是深度學習。
參考資料:
OlgaRussakovskyetal.,ImageNetLargeScaleVisualRecognitionChallenge,IntJComputVis(2015)115:211–252
MichaelA.Nielsen,NeuralNetworksandDeepLearning,DeterminationPress,(2015)
FrankSeideetal.,ConversationalSpeechTranscriptionUsingContext-DependentDeepNeuralNetworks,Interspeech(2011)
HenryW.Linetal.,Whydoesdeepandcheaplearningworksowell?,arXiv:1608.08225(2016)
ReneMeyer,DeepLearningSmartsUpYourSmartPhone,AMAX(2015)
--
作者:陳奕廷,台大物理系學士,史丹佛大學應用物理系博士班就讀中。
對各領域的科學都非常好奇,歡迎互相交流。
views
←徐光啓的故事
從大腦預測安慰劑能不能在你身上發揮效用→
你可能還想看
AI智慧教室─帶你一窺聽眾的心聲
2018年07月11日CASEPRESS
在〈AI智慧教室─帶你一窺聽眾的心聲〉中留言功能已關閉
【人物專訪】自然語言處理的靈活應用家——專訪馬偉雲
2019年12月23日CASEPRESS
在〈【人物專訪】自然語言處理的靈活應用家——專訪馬偉雲〉中留言功能已關閉
複合式量子機器學習
2019年06月04日CASEPRESS
在〈複合式量子機器學習〉中留言功能已關閉
好書推薦
《心靈黑洞:意識的奧祕》
《物理奇才奇事》
諾貝爾物理獎得主楊振寧推薦
《破解動物忍術》
延伸文章資訊
- 1深度學習- 維基百科,自由的百科全書 - Wikipedia
深度學習的好處是用非監督式或半監督式(英語:Semi-supervised learning)的特徵學習和分層特徵提取高效演算法來替代手工取得特徵。 表徵學習的目標是尋求更好的表示方法 ...
- 2Day 12: 人工神經網路初探深度學習 - iT 邦幫忙
深度學習是多層人工精神網路或多層感知器的另一種稱呼,還有多種不同型態的深度學習 ... 為了學習需求而做運算,但你可以依據現實世界的案例自行決定需要的層數。
- 3一句话理解到底怎么看神经网络的层数 - CSDN博客
在计算神经网络的层数时,只计算具有计算能力的层,而输入层只是将数据进行输入, ... 深度学习入门:一句话告诉你什么是神经网络(CNN,RNN,DNN).
- 4[地圖] 深度學習世界的魔法陣們 - iT 邦幫忙
- 5速記AI課程-深度學習入門(一) - 高智敏
另外,除了層數以外,前面提到的網路架構也是重點之一,最常見的是 ... 而GD應用在深度學習,又有個專有名詞,稱為反傳遞演算法(Backpropagation)。