博碩士論文 975201088 詳細資訊




以作者查詢圖書館館藏 以作者查詢臺灣博碩士 以作者查詢全國書目 勘誤回報 、線上人數:11 、訪客IP:3.145.34.51
姓名 陳宏偉(Hong-Wei Chen)  查詢紙本館藏   畢業系所 電機工程學系
論文名稱 道路視覺偵測與自動導航系統之實現
(Lane Visual Detection and Realization of the Autonomous Vision-Guided System)
相關論文
★ 影像處理運用於家庭防盜保全之研究★ 適用區域範圍之指紋辨識系統設計與實現
★ 頭部姿勢辨識應用於游標與機器人之控制★ 應用快速擴展隨機樹和人工魚群演算法及危險度於路徑規劃
★ 智慧型機器人定位與控制之研究★ 基於人工蜂群演算法之物件追蹤研究
★ 即時人臉偵測、姿態辨識與追蹤系統實現於複雜環境★ 基於環型對稱賈柏濾波器及SVM之人臉識別系統
★ 改良凝聚式階層演算法及改良色彩空間影像技術於無線監控自走車之路徑追蹤★ 模糊類神經網路於六足機器人沿牆控制與步態動作及姿態平衡之應用
★ 四軸飛行器之偵測應用及其無線充電系統之探討★ 結合白區塊視網膜皮層理論與改良暗通道先驗之單張影像除霧
★ 基於深度神經網路的手勢辨識研究★ 人體姿勢矯正項鍊配載影像辨識自動校準及手機接收警告系統
★ 模糊控制與灰色預測應用於隧道型機械手臂之分析★ 模糊滑動模態控制器之設計及應用於非線性系統
檔案 [Endnote RIS 格式]    [Bibtex 格式]    [相關文章]   [文章引用]   [完整記錄]   [館藏目錄]   [檢視]  [下載]
  1. 本電子論文使用權限為同意立即開放。
  2. 已達開放權限電子全文僅授權使用者為學術研究之目的,進行個人非營利性質之檢索、閱讀、列印。
  3. 請遵守中華民國著作權法之相關規定,切勿任意重製、散佈、改作、轉貼、播送,以免觸法。

摘要(中) 本篇論文主要為實現影像處理與控制器設計應用於輪型機器人之導航。整體架構以筆記型電腦為核心,搭配微控制器(BS2PX-IC),整合視覺影像與馬達控制,將控制策略建構在微控制器上,實現以模糊控制為基礎的輪型機器人導航。影像處理技術利用安裝在輪型機器人前方的CCD動態拍攝前方路況,透過擷取的影像做即時影像處理後取得路面資訊,進而找出車道線位置並估測出虛擬的車道中心線作為導航的依據。
本論文主要的重點分為兩部份:第一部份是影像處理及車道線偵測,第二部分是應用第一部分的結果,進行輪型機器人的導航。在影像處理及車道線偵測部份,為了因應不同的路面條件,使用動態二值化法將影像做二值化處理,取得基本車道線資訊,而根據車道線的性質將車道分為近端車道及遠端車道,在近端車道中用直線方程式去逼近以求得車道消失線(Vanishing line),除了簡化整張影像所要處理的部份外,亦作為動態搜索車道線交點的偵測線上限值。經過多層影像處理求得車道線後再求得車道中心線以獲取導航所需之角度。第二部份是模糊控制法則,在取得道路資訊後,利用影像處理後所獲取的車道線資訊建立模糊規則庫來進行輪型機器人的導航。
摘要(英) The goal of this thesis is to realize image processing and controller design applies to navigate of the two wheels mobile robot. The control system is implemented in a laptop, along with microcontroller (BS2PX-IC). Integrating with vision image and motor control, the control strategy is established in microcontroller to realize navigation two wheels mobile robot based on fuzzy control. Utilize the CCD camera that mounted on the front of two wheels mobile robot to take dynamic road condition. With retrieve the image to obtain efficient lane line condition and find out lane line, and then estimate the lane centre line for navigation.
The concept of this thesis can be divided into two parts, the first part is image processing. The second part is using the application of the result in the first part to navigate with wheeled mobile robot. In order to adapt the different surface of lane, we use dynamic threshold to distinct black and white in lane detection. Then, according to the difference of lane, we classified into near-point-lane and far-point-lane. In near-point-lane, we use function to calculate out the vanishing line. This method simply the image processing also the line becomes the upper bound of dynamic lane detection. After multi-image processing, we solve out the mid-line of the lane and obtain the angle for navigation. The second part is fuzzy control, after finishing the image processing part, we construct fuzzy rule to navigate the wheeled mobile robot.
關鍵字(中) ★ 影像處理
★ 模糊控制
★ 車道線偵測
關鍵字(英) ★ Fuzzy Control
★ Lane Detection
★ Image Processing
論文目次 中文摘要
英文摘要
目錄 Ⅰ
圖目錄 IV
表目錄 VIII
第一章 緒論 1
1.1 研究動機與目的 1
1.2 文獻回顧 2
1.3 研究方法與步驟 3
1.4 系統架構 4
1.5 論文架構 5
第二章 軟、硬體與系統架構 6
2.1軟體架構 6
2.2硬體架構 6
2.2.1 網路攝影機 6
2.2.2 微處理器 7
2.2.3 直流馬達 8
  2.2.4 位置控制器 9
第三章 車道線偵測與特徵擷取 15
3.1車道線偵測 15
3.1.1 動態二值化之車道線偵測 15
3.1.2 去雜訊 18
  3.1.3 連通物件法 18
3.1.4 消失點與消失線 24
3.1.5 反透視法 26
3.2實線車道中心線偵測 34
3.3虛線車道中心線偵測 36
第四章 輪型機器人運動控制 41
4.1模糊邏輯控制 41
4.1.1 模糊歸屬函數 42
4.1.2 模糊化與模糊規則庫 43
4.1.3 模糊推論 44
4.1.4 推論工廠與解模糊化 45
4.2 輪型機器人運動軌跡 49
4.2.1 運動方程式 49
第五章 模擬實驗結果 58
5.1 馬達位置速度計算 58
5.2 模擬結果 60
第六章 實驗結果與討論 65
6.1實驗結果 65
6.1.1直線-實線道路實驗 65
6.1.2直線-虛線道路實驗 67
6.1.3右彎-實線道路實驗 69
6.1.4右彎-虛線道路實驗 71
6.1.5左彎-實線道路實驗 73
6.1.6起步位置1-直線道路實驗 75
6.1.7起步位置2-直線道路實驗 77
6.2 討論 79
第七章 結論與未來發展 80
7.1 結論 80
7.2 未來展望 80
參考文獻 82
附錄 86
圖 目 錄
圖1-1 自動導航研究流程 1
圖2-1 系統方塊圖 6
圖2-2 Logitech Pro 9000網路攝影機 7
圖2-3 Basic Stamp 2px各部位功能圖 7
圖2-4 直流馬達運轉原理示意圖 8
圖2-5 Parallax 直流馬達示意圖 8
圖2-6 馬達定位裝置圖 9
圖2-7 Parallax位置控制器#29319 10
圖2-8 位置控制器I/O腳位圖 10
圖2-9 完整馬達系統實體圖 11
圖2-10 位置控制器ID設定示意圖 12
圖2-11 定位控制電路 13
圖2-12 系統架構圖 14
圖2-13 輪型機器人實體圖 14
圖3-1 RGB三維陣列 15
圖3-2 RGB色彩模型 16
圖3-3 灰階直方圖 17
圖3-4 動態二值化處理結果 18
圖3-5 侵蝕運算示意圖 19
圖3-6 膨脹運算示意圖 20
圖3-7 膨脹侵蝕運算結果圖 20
圖3-8 中值濾波器運算原理圖 21
圖3-9 中值濾波器處理二值化影像示意圖 22
圖3-10 中值濾波器處理二值化影像結果圖 22
圖3-11 8鄰點連通物件法掃描順序圖 23
圖3-12 8鄰點連通物件法區塊標記示意圖 24
圖3-13 8鄰點連通物件區塊標記法結果圖 24
圖3-14 車道遠近二分法示意圖 25
圖3-15 直線方程式逼近近端車道線 25
圖3-16 消失點與消失線 26
圖3-17 利用反向透視投影對應影像例子 27
圖3-18 CCD攝影機影像構成示意圖 28
圖3-19 CCD攝影機參數示意圖 29
圖3-20 直線道路利用反向透視投影對應影像結果圖30
圖3-21 彎道利用反向透視投影對應影像結果圖 31
圖3-22 車道線灰階特性示意圖 32
圖3-23 反透視法之車道線偵測流程圖 33
圖3-24 車道線模型示意圖 34
圖3-25 實線車道中心線 36
圖3-26 霍夫轉換示意圖 37
圖3-27 影像空間(X-Y)與參數空間(θ-ρ)轉換 38
圖3-28 霍夫平面轉換示意圖(離散點) 39
圖3-29 霍夫平面轉換示意圖(連續點) 39
圖3-30 霍夫轉換應用結果圖 39
圖3-31 虛線車道中心線 40
圖4-1 模糊邏輯控制流程圖 41
圖4-2 前件部 歸屬函數 42
圖4-3 前件部 歸屬函數 43
圖4-4 後件部 歸屬函數 43
圖4-5 最小推論工場計算流程圖 47
圖4-6 最小推論工場之模糊輸出集合圖 47
圖4-7 角度與角速度控制器輸入輸出關係圖 47
圖4-8 輪型機器人平面座標示意圖 50
圖4-9 輪型機器人運動推導圖 51
圖4-10 輪型機器人與影像對應圖 53
圖4-11 偵測線搜尋流程圖 54
圖4-12 輪型機器人直線運動軌跡圖 55
圖4-13 輪型機器人轉彎運動軌跡圖 56
圖4-14 輪型機器人導航流程圖 57
圖5-1 直線模擬圖 60
圖5-2 直線速度模擬圖 60
圖5-3 右彎實線模擬圖 61
圖5-4 右彎實線速度模擬圖 61
圖5-5 左彎實線模擬圖 62
圖5-6 左彎實線速度模擬圖 62
圖5-7 起步位置1-直線實線模擬圖 63
圖5-8 起步位置1-直線實線速度模擬圖63
圖5-9 起步位置2-直線實線模擬圖 64
圖5-10 起步位置2-直線實線速度模擬圖64
圖6-1 直線-實線道路實驗實況分解圖 66
圖6-2 直線-虛線道路實驗實況分解圖 68
圖6-3 右彎道-實線道路實驗實況分解圖 71
圖6-4 右彎道-虛線道路實驗實況分解圖 73
圖6-5 左彎道-實線道路實驗實況分解圖 75
圖6-6 起步位置1-直線道路實驗實況分解圖 77
圖6-7 起步位置2-直線道路實驗實況分解圖 79
表 目 錄
表2-1 ; Logitech Pro 9000規格表 7
表2-2 ; 馬達規格表 9
表2-3 ; 位置控制器腳位功能表 11
表2-4 ; Encoder ID設定表 12
表4-1 模糊規則庫 44
參考文獻 [1] M. Tian, F. Liu, W. Zhu and C. Xu, “Vision Based Lane Detection for Active Security in Intelligent Vehicle, ” Proceedings of IEEE International Conference on Vehicular Electronics and Safety, 2006.
[2] R. Jung and C. Kelber,“A Robust Linear-Parabolic Model for Lane Following, ”Proceedings of Computer Graphics and Image Processing, 17th Symposium on Brazilian pp. 72-79, 2004.
[3] R. Jung and C. Kelber,“An Improved Linear-Parabolic Model for Lane Following and Curve Detection” Proceedings of Computer Graphics and Image Processing, 18th Symposium on Brazilian pp. 131-138, 2005.
[4] W.S. Wijesoma, K.R.S. Kodagoda, A.P. Balasuriya, and E.K. Teoh. “Road edge and lane boundary detection using laser and vision” Proceedings of IEEE/RSJ International Conference on Intelligent Robot and Systems, Vol. 3, pp. 1440-1445, 2001.
[5] J. Sparbert, K. Dietmayer, D. Streller,“Lane detection and Street Type Classification using laser range images, ”Proceedings of IEEE Intelligent Transportation System, pp. 454-459, 2001.
[6] P. Lindner, E. Richter, G. Wanielik, K. Takagi, A. Isogai, “Multi-Channel Lidar Processing for Lane Detection and Estimation, ” Proceedings of IEEE Intelligent Transportation System Conference, pp. 1-6, 2009.
[7] S. Sehestedt, S. Kodagoda, A. Alempijevic and G. Dissanayake “Robust Lane Detection in Urban Environments,” Proceedings of the 2007 IEEE/RSJ International Conference on Intelligent Robots and Systems San Diego, CA, USA, Oct 29 - Nov 2, 2007.
[8] D. Schreiber, B. Alefs, and M.Clabian, “Single camera lane detection and tracking”, Intelligent Transportation System, 2005. Proceedings, 2005 IEEE, pp. 302-307.
[9] K. Kluge and S. Lakshmanan, “A Deformable-Template Approach to Lane Detection”, Proceedings of the IEEE Intelligent Vehicles Symposium, pp. 54-59, 1996.
[10] Y. Wang, D. Chen and C. Shi “Vision-Based Road Detection by Adaptive Region Segmentation and Edge Constraint” Intelligent Information Technology Application, IITA '08. Second International Symposium on 2008, Vol. 1, pp. 342-346.
[11] L. A. Zadeh, “Fuzzy Sets,” Inform. Control, Vol. 8, pp. 338-353, 1965.
[12] P. J. King and E.H. Mamdini, “Applications of fuzzy algorithms for control of simple dynamic plants,” IEE Proc., Vol. 121. pp.1585-1588, 1974.
[13] W. J. Wang, “Understanding Fuzzy, ” 3rd edition, Chuan Hua Publishing company, 2006.
[14] J. Xu and X. Feng, “Design of adaptive fuzzy PID tuner using optimization method,” IEEE Intelligent Control and Automation, Vol. 3, pp. 2452-2458, June 15-19, 2004.
[15] M. J. E. Salami and Y. I. Bulate, “Design and implementation of fuzzy-based PID controller,” Vol. 1, pp. 220-225, 2002.
[16]Http://www. playrobot.com/home_index.htm
[17]Http://www.parallax.com/Portals/0/Downloads/docs/prod/schem/BS2 Px24SchematicRevA.pdf.
[18] http://www.parallax.com/dl/docs/prod/stamps/BASICStamp2px.pdf
[19] http://www.parallax.com/Protls/0/Downloads/docs/prod/motors/ HB-25 MotorController-V1.2.pdf
[20] K. Wu, E. Otoo, and A. Shoshani, "Optimizing connected component labelling algorithms", Medical Imaging 2005: Image Processing, SPIE 5747: 1965-1976 (2005).
[21] W. Wang, C. Sun and H. Chao “Color Image Segmentation and Understanding through Connected Components”, IEEE Internation Conference on 1997, Vol. 2, pp. 1089-1092.
[22] A. Broggi, “Robust Real-Time Lane and Road Detection in Critical Shadow Condition,” In Proceedings IEEE International Symposium on Computer Vision, Coral Gables.
[23] M.Bertozzi and A. Broggi, “GOLD: A Parallel Real-Time Stereo Vision System for Generic Obstacle and Lane detection, ”IEEE Trans. Image Processing, vol. 7, no. 1, pp. 62-81, Jan. 1998.
[24] M.Bertozzi and A. Broggi, “Real-Time Lane and Obstacle Detection on The GOLD System,” Proceedings IEEE Intelligent Vehicle Symposium, pp. 213-218. 1996.
[25] R. O. Duda and P. E. Hart, “Use of the Hough Transformation to detect lines and curves in pictures, ”Communications of the ACM, Vol. 15, No. 1, pp. 11-15, 1972.
[26] H. Lin, H. Kim, C. S. Lin, and L. O. Chua “Road Boundary Detection Based on the Dynamic Programming and the Randomized Hough transform, ” 2007 International Symposium on Information Technology Convergence.
[27] D. J. Kang, J. W. Choi and I. S. Kweon, “Finding and Tracking Road Lanes Using Line-Snakes, ” Proceedings of IEEE on Intelligent Vehicles Symposium, pp. 189-194, Sept. 1996.
[28] B. Fardi and G. Wanielik, “Hough Transformation Based Approach for Road Border Detection in Infrared Images,” Proceedings of IEEE on Intelligent Vehicles Symposium, pp. 14-17, June 2004.
指導教授 鍾鴻源(Hung-Yuan Chung) 審核日期 2010-6-29
推文 facebook   plurk   twitter   funp   google   live   udn   HD   myshare   reddit   netvibes   friend   youpush   delicious   baidu   
網路書籤 Google bookmarks   del.icio.us   hemidemi   myshare   

若有論文相關問題,請聯絡國立中央大學圖書館推廣服務組 TEL:(03)422-7151轉57407,或E-mail聯絡  - 隱私權政策聲明