博碩士論文 109327002 詳細資訊




以作者查詢圖書館館藏 以作者查詢臺灣博碩士 以作者查詢全國書目 勘誤回報 、線上人數:25 、訪客IP:3.129.217.168
姓名 謝鈺陞(Yu-Sheng Shieh)  查詢紙本館藏   畢業系所 光機電工程研究所
論文名稱 利用深度學習及傳統辨識方法對芭樂 防撞泡棉去除及腐壞分析
相關論文
★ 氣動馬達之單軸平台定位控制★ 運用MRAC及模糊法則於氣動馬達FPGA控制器之研發
★ 球型變焦鏡頭之研究★ 影像式多目標模擬器製作與平行光顯像系統設計
★ 連續式微電鍍之影像處理方法★ 硬體迴路測試系統建構與驗證
★ 即時影像引導連續式微電鍍之立體微結構製作研究★ 公共環境下人員追蹤影像方法研究
★ 燃料電池氫氣進料控制之研究★ 形狀記憶合金對焦系統之 基因演算法及模糊控制法則
★ 公共空間光源亮度模糊控制法則之研究★ 立方衛星無線通訊系統開發
★ 多重訊號同步擷取裝置整合研究★ 應用希爾伯特黃變換(HHT)之邊際譜分析於旋轉機械的元件鬆脫故障診斷
★ 總體經驗模態分解法(EEMD)結合自回歸(AR)模型在旋轉機械之元件鬆脫故障診斷之應用★ 超音波聚焦噴墨之能量驅動與分析研究
檔案 [Endnote RIS 格式]    [Bibtex 格式]    [相關文章]   [文章引用]   [完整記錄]   [館藏目錄]   至系統瀏覽論文 (2028-7-5以後開放)
摘要(中) 隨著時代的進步,科技對於人們的影響越來越深,不論是經濟、交通、生活品質或是娛樂上都少不了它的蹤影,蔬菜水果的品質的要求也越來越高,使得農業與科技正在逐步靠近。人們可以利用專業技術去達成環境控制、品質分析、自動摘採等,使農產達到更高品質或是生產上有更高的效率。
「智慧農業」是人類對於科技與農業結合的目標,當中的自動採收也是熱門的研究之一,自動採收少不了偵測目標物的辨識系統。過去傳統方法的辨識系統對於環境有著很高的要求,環境會直接性的影響到影像偵測或分析的成功率,因此大多數的實驗者會於控制的環境之下進行研究。AI影像學習是目前影像辨識的主流之一,它是人工智慧當中的一個分支,利用大數據去訓練系統,讓系統可以判別目標物的特徵,使不同環境下的偵測物都可以被考慮進去,因此大幅降低了環境對於辨識的影響。
本研究使用機器學習技術,擷取芭樂於農場環境之位置及座標,並利用色彩分析遮罩等處理進行防撞泡棉去除及腐壞區域偵測。為了提高腐壞辨識分析的成功率,使用了白平衡、物件去背、中值濾波或是空間顏色量化等方法,將雜訊去除和色彩還原,來提高圖像中芭樂的防撞泡棉及腐壞特徵。
本實驗用400張芭樂圖片進行測驗,前置芭樂位置辨識成功率為61.34%,後段色彩分析遮罩之成功率為79.47%,故本實驗對於芭樂之位置及腐壞辨識分析成功率為48.75%。
摘要(英) With the advancement of technology, its influence on people is becoming more and more profound. Whether it is in the areas of economy, transportation, quality of life, or entertainment, its presence is ubiquitous. The demand for high-quality fruits and vegetables is also increasing, which is causing agriculture and technology to gradually come closer together. With the use of professional techniques such as environmental control, quality analysis, and automatic harvesting, agricultural products can achieve higher quality and production efficiency.
"Smart agriculture" is the goal of humans to combine technology and agriculture, and automatic harvesting is one of the popular research areas. Automatic harvesting requires an object recognition system to detect the target. Traditional recognition systems in the past had high environmental requirements, and the environment would directly affect the success rate of image detection or analysis. Therefore, most researchers conducted studies in a controlled environment. AI image learning is currently one of the mainstreams of image recognition, and it is a branch of artificial intelligence that uses big data to train the system to recognize the characteristics of the target object. This enables the detection of objects in different environments to be considered, thereby significantly reducing the impact of the environment on recognition. Artificial intelligence is the mainstream of this generation and will also be an important chapter in human technology.
In this research, Image machine learning techniques were used to capture the location and coordinates of guava within the farm environment. Color analysis, masking, and other processing methods were employed to remove collision foam and detect areas of decay. To enhance the success rate of decay recognition analysis, methods such as white balance, object extraction, median filtering, and spatial color quantization were utilized to remove noise and restore colors, thus improving the identification of collision foam and decay features in the guava images.
In this experiment, a total of 400 guava images were used for testing. The success rate of the initial guava location identification was 61.34%. The subsequent color analysis masking achieved a success rate of 79.47%. Therefore, the overall success rate of guava position and decay recognition analysis in this experiment was 48.75%.
關鍵字(中) ★ 智慧農業
★ 機器學習
★ 腐壞辨識分析
關鍵字(英) ★ Smart Agriculture
★ Machine Learning
★ Decay Recognition Analysis
論文目次 摘要 i
致謝 iv
目錄 v
圖目錄 vii
表目錄 x
第一章 緒論 1
1.1 研究背景 1
1.2 研究目的 2
1.3 論文架構 2
1.4 文獻探討 3
1.4.1. 台灣芭樂產業分析 3
1.4.2. 智慧農業 4
1.4.3. 人工智慧 7
1.4.4. YOLOv5物件偵測 9
1.4.5. 應用影像紋理分析及類神經網路辨識甘藍種苗 13
1.4.6. 影像視覺在香蕉熟度檢測之應用 14
第二章 基本原理與研究方法 16
2.1 AI影像辨識 16
2.2 深度學習與神經網路 16
2.3 傳統影像處裡 20
2.3.1. 白平衡原理 20
2.3.2. 圖像裁切 23
2.3.3. RGB和HLS色彩空間 24
2.3.4. 二質化原理 25
2.3.5. 模糊處裡 26
2.3.6. 侵蝕與膨脹運算 27
第三章 實驗流程與結果討論 29
3.1 實驗流程 29
3.2 實驗內容 31
3.2.1. YOLOv5s與 YOLOv5x 模型實驗分析 31
3.2.2. 偵測區域之圖像裁切 34
3.2.3. 白平衡處理 35
3.2.4. Rembg之物件去背 37
3.2.5. HLS色彩模式之飽和度及亮度定值 38
3.2.6. 中值濾波之引用 39
3.2.7. 空間顏色量化 40
3.2.8. 色彩分析遮罩、繪製及計算 41
3.3 實驗結果分析 44
3.3.1. 機器學習之訓練耗時 44
3.3.2. 機器學習對於辨識精確度之影響 45
3.3.3. 白平衡對於辨識精確度之影響 46
3.3.4. Rembg 物件去背對於辨識精確度之影響 47
3.3.5. 空間顏色量化對於辨識精確度之影響 47
3.3.6. 中值濾波對於辨識精確度之影響 48
第四章 結論與未來展望 49
4.1 結論 49
4.2 未來展望 50
參考文獻 51
參考文獻 [1]許哲豪,【智慧農業】採收機器人之視覺技術現況,MAKERPRO科技創新實作,10月,2018年。
[2]B. Arad, J. Balendonck, R. Barth, O. B. Shahar, Y. Edan, T. Hellström, J. Hemming, P. Kurtser & O. Ringdahl, Development of a sweet pepper harvesting robot, Journal Of Field Robotics, Wiley Periodicals, Vol.37, No.6, pp. 1027-1039, 2020.
[3]李柔靜、陳世銘、陳毓良、邱奕志、杜威霆、潘姵如,番茄採收機器人視覺系統之研究,農業機械學刊,第24卷,第2期,第1-12頁,06月,2015年。
[4]D. Monett, C. W. P. Lewis & K. R. Thorisson, John McCarthy’s Definition of Intelligence, Journal of Artificial General Intelligence, Vol.11, No.2, pp. 66-67, 2020.
[5]A. Kaplan & M. Haenlein (2019), Siri, Siri in my Hand, who′s the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence, Business Horizons, Vol.62, No.1, pp. 15-25, 2018.
[6]林月金、高德錚,台灣番石榴產業分析,農業主題館,芭樂(番石柳),行政院農業委員會(農業會),09月,2010年。
[7]智慧農業產業策進專案小組,111年度智慧農業業界參與補助計畫,SMART ARGI 智慧農業,05月,2022年。
[8]楊智凱、施瑩艷、楊舒涵,以智慧科技邁向台灣農業4.0時代,農政與農情,289期,農委會,07月,2016年。
[9]S. C. Shapiro(Ed.), Artificial Intelligence, Encyclopedia of Artificial Intelligence(Section Edition), John Wiley & Sons, Inc., New York, pp. 54-57, 1992.
[10]K. Frankish & W. M. Ramsey, The Cambridge handbook of artificial intelligence, Cambridge University Press Cambridge, UK, 2014.
[11]R. A. Brooks, Elephants Don′t Play Chess, Robotics and Autonomous Systems, Vol.6, pp. 3-15, 1990.
[12]深入淺出Yolo系列之Yolov5核心基礎知識完整講解,TW511,04月,2021年。
[13]H. Su, V. Jampani, D. Sun, O. Gallo, E. L. Miller & J. Kautz, Pixel-Adaptive Convolutional Neural Networks,Computer Vision and Pattern Recognition Research, Cornell University, 2019.
[14]郭磊、王邱龍、薛偉、郭濟,基於改進YOLOv5的小目標檢測算法,中國電子科技大學學報,第51卷,第2期,03月,2022年。
[15]邱天衡、王玲、王鵬、白燕娥,基於改進YOLOv5的目標檢測算法研究,計算機工程與應用,第58卷,第13期,第 63-73頁,2022年。
[16]謝清祿、鄭聖夫、林達德,應用影像紋理分析及類神經網路辨識甘藍種苗之生長階段,農業機械學刊,第六卷第二期,06月,1997年。
[17]鄭弼仁,影像視覺在香蕉熟度檢測之應用,碩士論文,崑山科技大學,06月,2021年。
[18]L. Deng & D. Yu, Deep Learning: Methods and Applications, Foundations and Trends in Signal Processing, Vol.7, Nos. 3-4, 2013.
[19]Y. Bengio, Learning Deep Architectures for AI, Foundations and Trends in Signal Processing, Vol.2, No.1, pp. 1-127, 2009.
[20]T. M. Mitchell, Machine Learning, McGraw-Hill, p. 2, Mar, 1997.
[21]S. S. Grigsby, Artificial Intelligence for Advanced Human-Machine Symbiosis, Springer International Publishing AG, D. D. Schmorrow & C. M. Fidopiastis (Eds.), pp. 255-266, Jun, 2018.
[22]D. E. Rumelhart, G. E. Hinton & R. J. Williams, Learning representations by back-propagating errors, Nature, No.8, Oct, 1986.
[23]P. J. Werbos, The Roots of Backpropagation. From Ordered Derivatives to Neural Networks and Political Forecasting, New York, NY: John Wiley & Sons, Inc., 1994.
[24]張夢,獅子和獵豹是如何成功捕獵的?看科學家的詳細分析,kknews-每日頭條,01月,2018年。
[25]F. F. Li, Y. Li & R. Gao, CS231n Convolutional Neural Networks for Visual Recognition-Convolutional Neural Networks(CNNs/ConvNets), Stanford University, Mar, 2023。
[26]T. Acharya & A. K. Ray, Image Processing: Principles and Applications, Wiley-Interscience, 2005.
[27]J. C. Russ, The Image Processing Handbook: Fourth Edition, CRC, 2002.
[28]徐曉昭、蔡軼珩、劉曉民、劉長江、沈蘭蓀,改進灰度世界顏色校正算法,光子學報,第39卷,第3期,3月,2010年。
[29]Y. C. Liu, W. H. Chan & Y. Q. Chen, Automatic white balance for digital still camera, IEEE Transactions on Consumer Electronics, Vol.41, No.3, pp. 460-466, Aug, 1995.
[30]周旭、孫有新、張嘯、李凱,彩色電視機白平衡自動調整系統和方法,電子工業出版社,2010年。
[31]巢峰主編,學生辭海[M],第153頁,上海:上海辭書出版社,12月,1997年。
[32]創意影像編著,風光攝影用光,第99頁,浙江攝影出版社,06月,2016年。
[33]李杰翰,利用Linear Programming進行色域對應,碩士論文,國立交通大學,007月,2005年。
[34]S. Heidari, M. M. Abutalib, M. Alkhambashi, A. Farouk & M. Naser, A new general model for quantum image histogram(QIH), Quantum Information Processing, Vol.18, No.6, Apr, 2019.
[35]D. C. Munson, A Note on Lena, IEEE Transactions on Image Processing, Vol.5, No.1, Jan, 1996.
[36]E. Davies, Machine Vision: Theory, Algorithms and Practicalities, Academic Press, pp. 42–44, 1990.
[37]R. Gonzalez & R. Woods Digital Image Processing, p 191, Addison-Wesley Publishing Company, 1992.
[38]M. F. Cowlishaw, Fundamental Requirements For Picture Presentation, Proceedings Of The Society For Information Display(SID),Vol.26, No.2, pp. 101-107, 1985.
[39]高世恆、周賢興,應用於彩色影像的改良式中值濾波器,國立宜蘭大學工程學刊,第4期,第19-38頁,02月,2008年。
[40]王崇力、林韋岑、歐力文、鍾念佑,Dancing Robot,大同大學2012資訊工程系專題,03月,2012年。
[41]R. Clarke, A Contingency Approach to the Application Software Generations: Version 24, Roger Clarke’s Software Generations, Feb, 1991.
[42]黃亞勤,基於視線跟蹤技術的眼控滑鼠研究與實現[D],西華大學,2011年。
[43]黃寶興,基於 YOLOv5 演算法進行衛照影像目標檢測之研究,在職專班碩士學位論文,中國科技大學,04月,2022年。
[44]S. Dasiopoulou & V. Mezaris, Knowledge-assisted semantic video object detection, IEEE Transactions on Circuits and Systems for Video Technology, Vol.15, No.10, Oct, 2005.
指導教授 黃衍任(Yan-Ren Huang) 審核日期 2023-7-6
推文 facebook   plurk   twitter   funp   google   live   udn   HD   myshare   reddit   netvibes   friend   youpush   delicious   baidu   
網路書籤 Google bookmarks   del.icio.us   hemidemi   myshare   

若有論文相關問題,請聯絡國立中央大學圖書館推廣服務組 TEL:(03)422-7151轉57407,或E-mail聯絡  - 隱私權政策聲明