博碩士論文 105221030 詳細資訊




以作者查詢圖書館館藏 以作者查詢臺灣博碩士 以作者查詢全國書目 勘誤回報 、線上人數:15 、訪客IP:18.116.85.72
姓名 鄭皓友(Hao-Yu Cheng)  查詢紙本館藏   畢業系所 數學系
論文名稱 影響蝴蝶辨識模型能力之因素探討與比較
(Discussion and comparison of factors affecting the ability of butterfly identification model)
相關論文
★ 氣流的非黏性駐波通過不連續管子之探究★ An Iteration Method for the Riemann Problem of Some Degenerate Hyperbolic Balance Laws
★ 影像模糊方法在蝴蝶辨識神經網路中之應用★ 單一非線性平衡律黎曼問題廣義解的存在性
★ 非線性二階常微方程組兩點邊界值問題之解的存在性與唯一性★ 對接近音速流量可壓縮尤拉方程式的柯西問題去架構區間逼近解
★ 一些退化擬線性波動方程的解的性質.★ 擬線性波方程中片段線性初始值問題的整體Lipchitz連續解的
★ 水文地質學的平衡模型之擴散對流反應方程★ 非線性守恆律的擾動Riemann 問題的古典解
★ BBM與KdV方程初始邊界問題解的週期性★ 共振守恆律的擾動黎曼問題的古典解
★ 可壓縮流中微黏性尤拉方程激波解的行為★ 非齊次雙曲守恆律系統初始邊界值問題之整域弱解的存在性
★ 有關非線性平衡定律之柯西問題的廣域弱解★ 單一雙曲守恆律的柯西問題熵解整體存在性的一些引理
檔案 [Endnote RIS 格式]    [Bibtex 格式]    [相關文章]   [文章引用]   [完整記錄]   [館藏目錄]   [檢視]  [下載]
  1. 本電子論文使用權限為同意立即開放。
  2. 已達開放權限電子全文僅授權使用者為學術研究之目的,進行個人非營利性質之檢索、閱讀、列印。
  3. 請遵守中華民國著作權法之相關規定,切勿任意重製、散佈、改作、轉貼、播送,以免觸法。

摘要(中) 影像辨識是人工智慧中的熱門領域,可以應用在許多地方,例如手寫數字辨識、車牌辨識、人臉辨識、物體辨識等等。使用深度學習的方法可以有效的提取特徵且降低人力成本,但要創造出一個好的分類模型需要考量很多因素。例如:合適的模型架構,合適的優化方法、合適的參數設定等等。
本實驗的蝴蝶圖像取自ImageNet,且使用卷積神經網路的方法建構蝴蝶辨識模型,並選定幾種可能影響蝴蝶辨識模型的因素作為探討與比較的對象。由實驗結果發現,dropout比例的大小、池化層的大小與擺放位置、相異的優化演算法及相異的卷積層層數皆會影響蝴蝶辨識模型的能力。因此,在建構模型時,這些因素都須慎重選擇,不可忽視它們對模型的影響力。
摘要(英) Image recognition is popular in artificial intelligence and can be applied to many fields, such as handwritten digit recognition, license plate recognition, face recognition, object recognition and so on. Using deep learning methods can effectively extract features and reduce costs. But, creating a good classification model requires consideration of many factors. For example: the appropriate model architecture, the appropriate optimization method, the appropriate parameter settings, and so on.
The butterfly images of this experiment are taken from ImageNet, and the butterfly identification models are constructed by the convolutional neural network. Several factors that may affect the butterfly identification model are selected as the objects of discussion and comparison. It is observed from the experimental results that the size of the dropout ratio, the size and placement of the pooling layer, the different optimization algorithms and the different layers of convolution layers all affect the ability of the butterfly identification model. Therefore, when constructing the model, these factors must be carefully chosen, and their influence on the model cannot be ignored.
關鍵字(中) ★ 深度學習
★ 影像辨識
★ 卷積神經網路
★ dropout
★ 池化層
★ 優化演算法
關鍵字(英) ★ Deep Learning
★ Image recognition
★ Convolutional neural network
★ dropout
★ pooling layer
★ optimization algorithm
論文目次 目錄
摘要 i
Abstract ii
致謝 iii
目錄 iv
表目錄 vi
圖目錄 vii
一、緒論 1
1.1機器學習概要簡介 1
1.2研究動機 3
1.3研究目的 3
1.4研究限制 3
二、論文背景知識與相關文獻探討 4
2.1 單層感知機(Perceptron) 4
2.2 多層感知機(Multilayer Perceptron) 5
2.3 激活函數(Activation Function) 6
2.3.1 Sigmoid函數 8
2.3.2 ReLU函數 9
2.4 過擬合(Overfitting) 10
2.4.1 Dropout 10
2.5梯度下降優化方法 11
2.5.1 預設學習率的參數更新 12
2.5.2 自適應優化方法(Adaptive Learning Rate) 13
2.6 卷積神經網路(Convolutional Neural Network) 16
2.6.1 卷積層(Convolutional Layer) 17
2.6.2 池化層(Pooling Layer) 19
2.6.3 全連接層(Fully Connected Layer) 20
三、數據庫與實驗模型介紹 21
3.1 實驗框架介紹 21
3.2 圖片庫介紹 22
3.3 數據集製作 23
3.4 實作流程 24
3.5 模型結構 24
四、結果與討論 25
4.1 Dropout比例於模型的影響 25
4.2池化層差異對模型的影響 29
4.3相異優化方法在模型的表現 35
4.4相異的卷積層層數在模型的表現 42
五、結論與未來展望 47
參考文獻 49
參考文獻 [1].黃安埠 (2017)。深入淺出深度學習-原理剖析與Python實踐。電子工業出版社。
[2].鄭澤宇、顧思宇 (2017)。Tensorflow實戰Google深度學習框架。電子工業出版社。
[3].林大貴 (2017)。TensorFlow + Keras深度學習人工智慧實務應用。博碩出版社。
[4].李宏毅 (2016)。Machine Learning。
(http://speech.ee.ntu.edu.tw/~tlkagk/courses_ML16.html )。
[5].斎藤康毅 (2017)。Deep Learning – 用Python進行深度學習的基礎理論實作。碁峰資訊股份有限公司。
[6].Nikhil Buduma (2018)。Deeping Learning 深度學習基礎 – 設計下一代人工智慧演算法。碁峰資訊股份有限公司。
[7].Deng, J., Dong, W., Socher, R., Li, L.-J., Li, K., and Fei-Fei, L. (2009). ImageNet: A Large-Scale Hierarchical Image Database. In CVPR09.
[8].Duchi, J., Hazan, E., and Singer, Y. (2011). Adaptive subgradient methods for online learning and stochastic optimization. Journal of Machine Learning Research,2121-2159.
[9].Glorot, X., Bordes, A., and Bengio, Y. (2011a). Deep sparse rectifier neural networks. In AISTATS’2011 .
[10].Goodfellow, I. J., Bengio, Y., and Courville, A. (2016). Deep Learning . https://www.deeplearningbook.org.
[11].He, K., Zhang, X., Ren, S., and Sun, J. (2015). Deep Residual Learning for Image Recognition. arXiv:1512.03385 .
[12].Kingma, D. and Ba, J. (2014). Adam: A method for stochastic optimization. arXiv:1412.6980 .
[13].Krizhevsky, A., Sutskever, I., and Hinton, G. (2012b). ImageNet classification with deep convolutional neural networks. In Advances in Neural Information Processing Systems 25(NIPS’2012).
[14].Qian, N. (1999). On the momentum term in gradient descent learning algorithms. Nerual networks: the official journal of the International Neural Network Society,12:145-151.
[15].Rosenblatt, F. (1958). The Perceptron: A probabilistic model for information storage and organization in the brain. Cornell Aeronautical Laboratory, Psychological Review, v65, No. 6, pp. 386–408.
[16].Ruder, S. (2017). An overview of gradient descent optimization algorithms. arXiv:1609.04747 .
[17].Simonyan, K. and Zisserman, A. (2014). Very deep convolutional networks for large-scale image recognition. arXiv:1409.1556
[18].Srivastava, N., Hinton, G., Krizhevsky, A., Sutskever, I., and Salakhutdinov, R. (2014). Dropout: A simple way to prevent neural networks from overfitting. Journal of Machine Learning Research, 15, 1929–1958.
[19].Szegedy, C., Liu, W., Jia, Y., Sermanet, P., Reed, S., Anguelov, D., Erhan, D., Vanhoucke, V., and Rabinovich, A. (2014a). Going deeper with convolutions. Technical report, arXiv:1409.4842.
[20].Tieleman, T. and Hinton, G. ( 2012 ).Lecture 6.5- RMSProp:Divide the gradient by a running average of its recent magnitude. COURSERA: Neural Networks for Machine Learning.
指導教授 洪盟凱 審核日期 2019-1-21
推文 facebook   plurk   twitter   funp   google   live   udn   HD   myshare   reddit   netvibes   friend   youpush   delicious   baidu   
網路書籤 Google bookmarks   del.icio.us   hemidemi   myshare   

若有論文相關問題,請聯絡國立中央大學圖書館推廣服務組 TEL:(03)422-7151轉57407,或E-mail聯絡  - 隱私權政策聲明