博碩士論文 107552025 詳細資訊




以作者查詢圖書館館藏 以作者查詢臺灣博碩士 以作者查詢全國書目 勘誤回報 、線上人數:34 、訪客IP:18.208.187.128
姓名 陳映華(Ying-Hua Chen)  查詢紙本館藏   畢業系所 資訊工程學系在職專班
論文名稱 基於 ARM 架構上的 ORB-SLAM2 的應用與改進
(The application and improvement of ORBSLAM2 on ARM platform)
相關論文
★ Single and Multi-Label Environmental Sound Recognition with Gaussian Process★ 波束形成與音訊前處理之嵌入式系統實現
★ 語音合成及語者轉換之應用與設計★ 基於語意之輿情分析系統
★ 高品質口述系統之設計與應用★ 深度學習及加速強健特徵之CT影像跟骨骨折辨識及偵測
★ 基於風格向量空間之個性化協同過濾服裝推薦系統★ RetinaNet應用於人臉偵測
★ 金融商品走勢預測★ 整合深度學習方法預測年齡以及衰老基因之研究
★ 漢語之端到端語音合成研究★ 基於深度學習之指數股票型基金趨勢預測
★ 探討財經新聞與金融趨勢的相關性★ 基於卷積神經網路的情緒語音分析
★ 運用深度學習方法預測阿茲海默症惡化與腦中風手術存活★ 應用於旋積盲訊號源分離之BIC基礎式訊號源數目估測及相位補償技術
檔案 [Endnote RIS 格式]    [Bibtex 格式]    [相關文章]   [文章引用]   [完整記錄]   [館藏目錄]   至系統瀏覽論文 ( 永不開放)
摘要(中) 自駕車的議題在研究領域產生的論文絡繹不絕,在實際的應用上也必須克服種種的困難來達到更進一程度的自動化。而所有的應用都仰賴於地圖的建置,尤其是在新環境的地圖建置,近年來SLAM的發展越來越多樣化,支援的感測器也越來越多元。也有些結合機器學習的版本,但是相對所需的運算資源也較多。如何在有限的資源上達到最大效益,降低誤差值以影響到後續的應用。本論文使用Raspberry Pi 3 model B在上面實現ORB-SLAM2改良的算法。利用更換更有效率的描述符,以得到匹配率高的立體匹配特徵點。另外也在迴路檢測中調整參數,以修正在建圖中所累積的誤差。搭配前端與後端的修正,在Raspberry Pi 3(CPU ARM A53)的平台上也能達到可接受的精準度。
摘要(英) The topic of self-driving cars has produced an endless stream of papers in the research field, and various difficulties must be overcome to achieve a higher degree of automation in practical applications. All applications rely on the establishment of maps, especially those in new environments. In recent years, the development of SLAM has become more and more diversified, and the supported sensors have become more and more diverse. There are also versions that combine machine learning, but relatively require more computing resources. How to achieve maximum benefit on limited resources and reduce the error value to affect subsequent applications. This paper uses Raspberry Pi 3 as the platform to implement the improved algorithm of ORB-SLAM2 on it. Replace the more efficient descriptors to obtain the stereo matching feature points with high matching rate. In addition, the parameters are adjusted in the loop detection to correct the errors accumulated in the construction drawing. With front-end and back-end corrections, acceptable accuracy can also be achieved on the CPU ARM A53 platform.
關鍵字(中) ★ 同步定位與建圖
★ 機器人作業系統
關鍵字(英) ★ SLAM
★ ORB-SLAM
★ ROS
★ ARM
★ BELID
論文目次 中文摘要 I ii
Abstract II iii
圖目錄 III vi
表目錄 IV viii
第一章 緒論 1
1.1. 研究動機 1
1.2. 研究目的 2
1.3. 論文架構 2
第二章 Related Works 3
2.1. 常見SLAM種類 3
2.2. ORB-SLAM系列 4
2.3. RTAB-MAP 5
2.4. Pseudo RGB-D 5
第三章 背景及相關知識 7
3.1. ROS機器人作業系統 7
3.2. 雙眼視覺 8
3.2.1. 3D感測技術分類 8
3.2.2. 技術突破性 8
3.2.3. 雙眼視覺原理 9
3.2.4. 相機校正 9
3.2.5. 畸變種類 10
3.2.6. 相機標定技術 12
3.2.7. 立體匹配 12
3.2.8. 深度學習立體匹配 15
3.3. ORB-SLAM2介紹 18
3.3.1. System Overview 18
3.3.2. 特徵點匹配方式 19
3.3.3. 單眼、近處雙眼和遠處雙眼特徵點 21
3.3.4. 用單眼或雙眼進行BA 23
3.3.5. LOOP CLOSING使用詞袋法(Bag of Words) 25
第四章 系統架構與改進方法 27
4.1. 硬體架構 27
4.2. 軟體架構 30
4.3. BELID特徵匹配 32
4.4. 與先前方法比較 34
第五章 實驗架構與改進方法 40
5.1. EuRoC MAV Dataset資料集 40
5.2. 資料集處理 41
5.3. 實驗場景架構 43
第六章 實驗結果 44
6.1. 真實場景數據 44
6.2. 實驗效能比對 46
第七章 結論與未來展望 50
參考資料 51
附錄 52
參考文獻 [1] ORB-SLAM2论文解读与总结URL:https://blog.csdn.net/zxcqlf/article/details/80198298
[2] 【圖解】3D感測技術發展與應用趨勢-大和有話說URL:https://reurl.cc/KA9m6M
[3] R. Mur-Artal and J. D. Tard´os, “ORB-SLAM2: An open-source SLAM system for monocular, stereo, and RGB-D cameras,” IEEE Transactions on Robotics, vol. 33, no. 5, pp. 1255–1262, 2017.
[4] R. Mur-Artal, J. D. Tard´os, J. M. M. Montiel, and D. G´alvez-L´opez,“ORB-SLAM2,” https://github.com/raulmur/ORB SLAM2, 2016.
[5] Wei-Chih Tu ,NTU Computer Vision: from Recognition to Geometry Lecture 14
[6] Stereo Vision: Algorithms and Applications, Stefano Mattoccia, Department of Computer Science (DISI), University of Bologna
[7] 机器视觉模型——畸变模型URL:https://www.guyuehome.com/33246
[8] Camera Calibration相機校正URL:https://reurl.cc/DgOR0Q
[9] M. Burri, J. Nikolic, P. Gohl, T. Schneider, J. Rehder, S. Omari, M. W.Achtelik, and R. Siegwart, “The EuRoC micro aerial vehicle datasets,”The International Journal of Robotics Research, vol. 35, no. 10, pp.1157–1163, 2016.
[10] Improving your image matching results by 14% with one line of code URL:https://reurl.cc/eEkejM
[11] 高翔,張濤著作。視覺SLAM十四講:從理論到實踐
[12] A. Geiger, P. Lenz, C. Stiller, and R. Urtasun, “Vision meets robotics: The KITTI dataset,” Int. J. Robot. Res., vol. 32, no. 11, pp. 1231–1237,2013.
[13]DFRobot DFR5092 wiki:https://wiki.dfrobot.com/DC_Motor_Driver_HAT_SKU_DFR0592
[14] 小觅智能| ORB-SLAM 学习笔记:https://zhuanlan.zhihu.com/p/47451004
[15]ROS wikil:http://wiki.ros.org/ROS/Tutorials
[16] 「(1) (PDF) BELID: Boosted Efficient Local Image Descriptor」. https://www.researchgate.net/publication/334230975_BELID_Boosted_Efficient_Local_Image_Descriptor (引見於 8月 21, 2021).
[17] J. Sturm, N. Engelhard, F. Endres, W. Burgard及D. Cremers, 作者, 「A benchmark for the evaluation of RGB-D SLAM systems」, 收入 2012 IEEE/RSJ International Conference on Intelligent Robots and Systems, 10月 2012, 頁 573–580. doi: 10.1109/IROS.2012.6385773.
[18] 「A Raspberry Pi 2-based stereo camera depth meter | IEEE Conference Publication | IEEE Xplore」. https://ieeexplore.ieee.org/document/7986854 (引見於 7月 05, 2021).
[19] Q. Fu等, 作者, 「A Robust RGB-D SLAM System With Points and Lines for Low Texture Indoor Environments」, IEEE Sens. J., 卷 19, 期 21, 頁 9908–9920, 11月 2019, doi: 10.1109/JSEN.2019.2927405.
[20] H. Xu及J. Zhang, 作者, 「AANet: Adaptive Aggregation Network for Efficient Stereo Matching」, 2020, 頁 1959–1968. 引見於: 7月 05, 2021. [線上]. 載於:https://openaccess.thecvf.com/content_CVPR_2020/html/Xu_AANet_Adaptive_Aggregation_Network_for_Efficient_Stereo_Matching_CVPR_2020_paper.html
[21] 「Computer Vision Group - Visual SLAM - DSO: Direct Sparse Odometry」. https://vision.in.tum.de/research/vslam/dso (引見於 8月 18, 2021).
[22] 「Computer Vision Group - Visual SLAM - LSD-SLAM: Large-Scale Direct Monocular SLAM」. https://vision.in.tum.de/research/vslam/lsdslam (引見於 7月 05, 2021).
[23] H. Fu, M. Gong, C. Wang, K. Batmanghelich及D. Tao, 作者, 「Deep Ordinal Regression Network for Monocular Depth Estimation」, ArXiv180602446 Cs, 6月 2018, 引見於: 7月 05, 2021. [線上]. 載於: http://arxiv.org/abs/1806.02446
[24] C. Kerl, J. Sturm及D. Cremers, 作者, 「Dense visual SLAM for RGB-D cameras」, 收入 2013 IEEE/RSJ International Conference on Intelligent Robots and Systems, 11月 2013, 頁 2100–2106. doi: 10.1109/IROS.2013.6696650.
[25] R. A. Güler, N. Neverova及I. Kokkinos, 作者, 「DensePose: Dense Human Pose Estimation In The Wild」, ArXiv180200434 Cs, 2月 2018, 引見於: 7月 05, 2021. [線上]. 載於: http://arxiv.org/abs/1802.00434
[26] A. Gordon, H. Li, R. Jonschkowski及A. Angelova, 作者, 「Depth from Videos in the Wild: Unsupervised Monocular Depth Learning from Unknown Cameras」, ArXiv190404998 Cs, 4月 2019, 引見於: 7月 05, 2021. [線上]. 載於: http://arxiv.org/abs/1904.04998
[27] C. Godard, O. Mac Aodha, M. Firman及G. Brostow, 作者, 「Digging Into Self-Supervised Monocular Depth Estimation」, ArXiv180601260 Cs Stat, 8月 2019, 引見於: 7月 05, 2021. [線上]. 載於: http://arxiv.org/abs/1806.01260
[28] R. A. Newcombe, S. J. Lovegrove及A. J. Davison, 作者, 「DTAM: Dense tracking and mapping in real-time」, 收入 2011 International Conference on Computer Vision, 11月 2011, 頁 2320–2327. doi: 10.1109/ICCV.2011.6126513.
[29] S. Zhang, Z. Wang, Q. Wang, J. Zhang, G. Wei及X. Chu, 作者, 「EDNet: Efficient Disparity Estimation with Cost Volume Combination and Attention-based Spatial Residual」, ArXiv201013338 Cs, 3月 2021, 引見於: 7月 05, 2021. [線上]. 載於: http://arxiv.org/abs/2010.13338
[30] 「Elastic Fusion」, Imperial College London. http://www.imperial.ac.uk/a-z-research/dyson-robotics-lab/downloads/elastic-fusion/ (引見於 8月 18, 2021).
[31] A. Kendall等, 作者, 「End-to-End Learning of Geometry and Context for Deep Stereo Regression」, ArXiv170304309 Cs, 3月 2017, 引見於: 7月 05, 2021. [線上]. 載於: http://arxiv.org/abs/1703.04309
[32] Q. Wang, S. Shi, S. Zheng, K. Zhao及X. Chu, 作者, 「FADNet: A Fast and Accurate Network for Disparity Estimation」, ArXiv200310758 Cs, 3月 2020, 引見於: 7月 05, 2021. [線上]. 載於: http://arxiv.org/abs/2003.10758
[33] C. A. Aguilera, C. Aguilera, C. A. Navarro及A. D. Sappa, 作者, 「Fast CNN Stereo Depth Estimation through Embedded GPU Devices」, Sensors, 卷 20, 期 11, Art. 期 11, 1月 2020, doi: 10.3390/s20113249.
[34] D. Wofk, F. Ma, T.-J. Yang, S. Karaman及V. Sze, 作者, 「FastDepth: Fast Monocular Depth Estimation on Embedded Systems」, ArXiv190303273 Cs, 3月 2019, 引見於: 7月 05, 2021. [線上]. 載於: http://arxiv.org/abs/1903.03273
[35] P. Fischer等, 作者, 「FlowNet: Learning Optical Flow with Convolutional Networks」, ArXiv150406852 Cs, 5月 2015, 引見於: 7月 05, 2021. [線上]. 載於: http://arxiv.org/abs/1504.06852
[36] F. Zhang, V. Prisacariu, R. Yang及P. H. S. Torr, 作者, 「GA-Net: Guided Aggregation Net for End-to-end Stereo Matching」, ArXiv190406587 Cs, 4月 2019, 引見於: 7月 05, 2021. [線上]. 載於: http://arxiv.org/abs/1904.06587
[37] Y. Cao, J. Xu, S. Lin, F. Wei及H. Hu, 作者, 「GCNet: Non-local Networks Meet Squeeze-Excitation Networks and Beyond」, ArXiv190411492 Cs, 4月 2019, 引見於: 8月 18, 2021. [線上]. 載於: http://arxiv.org/abs/1904.11492
[38] S. Kohlbrecher, J. Meyer, T. Graber, K. Petersen, U. Klingauf及O. Von Stryk, 作者, Hector Open Source Modules for Autonomous Mapping and Navigation with Rescue Robots. 2014, 頁 631. doi: 10.1007/978-3-662-44468-9_58.
[39] J. Engel, T. Schöps及D. Cremers, 作者, 「LSD-SLAM: Large-Scale Direct Monocular SLAM」, 收入 Computer Vision – ECCV 2014, 卷 8690, D. Fleet, T. Pajdla, B. Schiele及T. Tuytelaars, 編輯 Cham: Springer International Publishing, 2014, 頁 834–849. doi: 10.1007/978-3-319-10605-2_54.
[40] 「Mobile robot V-SLAM based on improved closed-loop detection algorithm | IEEE Conference Publication | IEEE Xplore」. https://ieeexplore.ieee.org/document/8785611 (引見於 7月 11, 2021).
[41] A. J. Davison, I. D. Reid, N. D. Molton及O. Stasse, 作者, 「MonoSLAM: Real-Time Single Camera SLAM」, IEEE Trans. Pattern Anal. Mach. Intell., 卷 29, 期 6, 頁 1052–1067, 6月 2007, doi: 10.1109/TPAMI.2007.1049.
[42] 「OpenSLAM.org」. https://openslam-org.github.io/gmapping.html (引見於 8月 18, 2021).
[43] R. Mur-Artal及J. D. Tardos, 作者, 「ORB-SLAM2: an Open-Source SLAM System for Monocular, Stereo and RGB-D Cameras」, IEEE Trans. Robot., 卷 33, 期 5, 頁 1255–1262, 10月 2017, doi: 10.1109/TRO.2017.2705103.
[44] C. Campos, R. Elvira, J. J. G. Rodríguez, J. M. M. Montiel及J. D. Tardós, 作者, 「ORB-SLAM3: An Accurate Open-Source Library for Visual, Visual-Inertial and Multi-Map SLAM」, IEEE Trans. Robot., 頁 1–17, 2021, doi: 10.1109/TRO.2021.3075644.
[43] 「Parallel Tracking and Mapping for Small AR Workspaces (PTAM)」. https://www.robots.ox.ac.uk/~gk/PTAM/ (引見於 8月 18, 2021).
[44] L. Tiwari, P. Ji, Q.-H. Tran, B. Zhuang, S. Anand及M. Chandraker, 作者, 「Pseudo RGB-D for Self-Improving Monocular SLAM and Depth Prediction」, ArXiv200410681 Cs, 8月 2020, 引見於: 8月 18, 2021. [線上]. 載於: http://arxiv.org/abs/2004.10681
[45] J.-R. Chang及Y.-S. Chen, 作者, 「Pyramid Stereo Matching Network」, ArXiv180308669 Cs, 3月 2018, 引見於: 7月 05, 2021. [線上]. 載於: http://arxiv.org/abs/1803.08669
[46] 「RTAB-Map」, RTAB-Map. http://introlab.github.io/rtabmap/ (引見於 8月 18, 2021).
[47] A. Seki及M. Pollefeys, 作者, 「SGM-Nets: Semi-Global Matching With Neural Networks」, 2017, 頁 231–240. 引見於: 7月 05, 2021. [線上]. 載於: https://openaccess.thecvf.com/content_cvpr_2017/html/Seki_SGM-Nets_Semi-Global_Matching_CVPR_2017_paper.html
[48] Y. Luo等, 作者, 「Single View Stereo Matching」, ArXiv180302612 Cs, 3月 2018, 引見於: 7月 05, 2021. [線上]. 載於: http://arxiv.org/abs/1803.02612
[49] F. Ma及S. Karaman, 作者, 「Sparse-to-Dense: Depth Prediction from Sparse Depth Samples and a Single Image」, ArXiv170907492 Cs, 2月 2018, 引見於: 7月 05, 2021. [線上]. 載於: http://arxiv.org/abs/1709.07492
[50] G. D. Caffaratti, M. G. Marchetta及R. Q. Forradellas, 作者, 「Stereo Matching through Squeeze Deep Neural Networks」, Intel. Artif., 卷 22, 期 63, Art. 期 63, 2月 2019, doi: 10.4114/intartif.vol22iss63pp16-38.
[51] S. Khamis, S. Fanello, C. Rhemann, A. Kowdle, J. Valentin及S. Izadi, 作者, 「StereoNet: Guided Hierarchical Refinement for Real-Time Edge-Aware Depth Prediction」, ArXiv180708865 Cs, 7月 2018, 引見於: 7月 05, 2021. [線上]. 載於: http://arxiv.org/abs/1807.08865
[52] C. Forster, M. Pizzoli及D. Scaramuzza, 作者, 「SVO: Fast semi-direct monocular visual odometry」, 收入 2014 IEEE International Conference on Robotics and Automation (ICRA), Hong Kong, China, 5月 2014, 頁 15–22. doi: 10.1109/ICRA.2014.6906584.
[53] M. Burri等, 作者, 「The EuRoC micro aerial vehicle datasets」, Int. J. Robot. Res., 卷35, 期 10, 頁 1157–1163, 9月 2016, doi: 10.1177/0278364915620033.
[54] M. Poggi, F. Aleotti, F. Tosi及S. Mattoccia, 作者, 「Towards real-time unsupervised monocular depth estimation on CPU」, ArXiv180611430 Cs, 7月 2018, 引見於: 7月 05, 2021. [線上]. 載於: http://arxiv.org/abs/1806.11430
[55] R. Ranftl, K. Lasinger, D. Hafner, K. Schindler及V. Koltun, 作者, 「Towards Robust Monocular Depth Estimation: Mixing Datasets for Zero-shot Cross-dataset Transfer」, ArXiv190701341 Cs, 8月 2020, 引見於: 7月 05, 2021. [線上]. 載於: http://arxiv.org/abs/1907.01341
[56] 「Vision meets robotics: The KITTI dataset - A Geiger, P Lenz, C Stiller, R Urtasun,2013」.https://journals.sagepub.com/doi/full/10.1177/0278364913491297 (引見於 7月 05, 2021).
指導教授 王家慶(Jia-Ching Wang) 審核日期 2021-9-11
推文 facebook   plurk   twitter   funp   google   live   udn   HD   myshare   reddit   netvibes   friend   youpush   delicious   baidu   
網路書籤 Google bookmarks   del.icio.us   hemidemi   myshare   

若有論文相關問題,請聯絡國立中央大學圖書館推廣服務組 TEL:(03)422-7151轉57407,或E-mail聯絡  - 隱私權政策聲明