博碩士論文 104521046 詳細資訊




以作者查詢圖書館館藏 以作者查詢臺灣博碩士 以作者查詢全國書目 勘誤回報 、線上人數:82 、訪客IP:3.141.7.130
姓名 黃貞瑗(Jhen-Yuan Huang)  查詢紙本館藏   畢業系所 電機工程學系
論文名稱 居家互動機器人之研製
相關論文
★ 直接甲醇燃料電池混合供電系統之控制研究★ 利用折射率檢測法在水耕植物之水質檢測研究
★ DSP主控之模型車自動導控系統★ 旋轉式倒單擺動作控制之再設計
★ 高速公路上下匝道燈號之模糊控制決策★ 模糊集合之模糊度探討
★ 雙質量彈簧連結系統運動控制性能之再改良★ 桌上曲棍球之影像視覺系統
★ 桌上曲棍球之機器人攻防控制★ 模型直昇機姿態控制
★ 模糊控制系統的穩定性分析及設計★ 門禁監控即時辨識系統
★ 桌上曲棍球:人與機械手對打★ 麻將牌辨識系統
★ 相關誤差神經網路之應用於輻射量測植被和土壤含水量★ 三節式機器人之站立控制
檔案 [Endnote RIS 格式]    [Bibtex 格式]    [相關文章]   [文章引用]   [完整記錄]   [館藏目錄]   [檢視]  [下載]
  1. 本電子論文使用權限為同意立即開放。
  2. 已達開放權限電子全文僅授權使用者為學術研究之目的,進行個人非營利性質之檢索、閱讀、列印。
  3. 請遵守中華民國著作權法之相關規定,切勿任意重製、散佈、改作、轉貼、播送,以免觸法。

摘要(中) 本論文設計目標為製作一智慧型機器人,除了設計及製作整體機器人的結構與外觀,使機器人擁有人型的頭部機構、兩隻機器手臂與使用者互動。本機器人有以下功能:一、錄製/撥放留言功能,二、視線跟隨功能,三、喝酒互動模式,四、倒酒互動模式,五、定時提醒,六、遠端視察/遙控。
  在功能一中,使用者透過手機App錄製留言,並設定撥放時間,功能二,當人出現在機器人視野時,機器人能辨識其位置並跟隨人移動視野,而功能三與四,機器人可以使用機器手臂與人互動喝酒,或倒酒給自己喝,功能五中有預先準備好的提醒事項可供使用者利用手機App設定撥放,最後功能六,藉由使用App遠端視察/控制機器人即時視角。
  除了機器人本身的視覺裝置與雙臂結構,手機互動的App設計也包含在此項主題的研究範疇,除了介面與排版的設計需要簡單方便,讓使用者方便操作,還必須透過伺服器的架設來連接機器人端的連網功能,如:遠端視訊、資料傳輸等,在連網方面,也使用不同優勢的技術來支援,以達到減少運算量的目的。
  本研究之機器人系統整合,其主要控制板為Raspberry Pi 單機版做為運算工具,除了馬達的封包控制機器手臂,且需進行人臉偵測與酒瓶偵測的計算,同時還架設網站伺服,作為手機App端連結使用。
摘要(英)
This paper presents an interactive home robot. The robot system includes the design of the robot architecture, processing image, kinematics of robot arms, and establishment of communications protocols. Besides, there are six modes in the robot system. Mode 1: Record/Play a message. Mode 2: Follow people. Mode 3: Drinking interaction. Mode 4: Pour and drink. Mode 5: Remind the event. Mode 6: Remote monitoring.
In the mode 1, the user can record the message and set the time by using the App on the mobile phone. In the mode 2, the robot head can follow a person who is in the sight of the robot. In the mode 3, robot will ask user to pour the drink into the cup, which is hold by robot hand. If the drink in the cup reaches the particular weight, the robot will drink it. In the mode 4, the robot will request the user to put the bottle to its hand. If the bottle is in the robot hand, then the robot will hold the bottle and drink. In the mode 5, the user can set the time and several events; and then the robot will remind the near people at the time. In the mode 6, the user can remotely control and monitor the robot head by using the App. The design of the App has related the composition of information from services or local resources can be time-consuming, costly, and inconvenient. This research combines communications protocols to build an effective, efficient, and easy-to-use mobile App.
The research is about the robot system integration. Within the Raspberry Pi, the tasks contain that the sending packages of motors control, the face/the bottle recognition, and website building. The user uses the App to connect with the website.
關鍵字(中) ★ 影像處理
★ 機器學習
★ 互動式App
關鍵字(英) ★ image processing
★ machine learning
★ App inventor
論文目次
摘要 iv
Abstract v
致謝 vi
目錄 vii
圖目錄 ix
表目錄 xi
第一章 緒論 1
1.1研究背景與動機 1
1.2文獻回顧 1
1.3論文目標 3
1.4論文架構 3
第二章 系統架構與硬體介紹 4
2.1硬體架構 4
2.2硬體介紹 4
2.3機構設計 8
2.3.1機器人頭與手臂設計 8
2.3.2夾爪設計 10
2.4系統架構 11
第三章 機器人影像與手臂控制技術 12
3.1影像前處理 12
3.1.1相機校正 12
3.1.2非標準立體視覺幾何架構 15
3.2影像偵測與辨識訓練 17
3.3影像處理成果 21
3.3.1 識別物體(人臉與酒罐) 21
3.3.2 雙眼視覺計算物體距離 23
3.4機器人運動模型 25
3.5影像座標轉換 27
3.6馬達串列傳輸封包控制 29
3.6.1封包格式 29
3.6.2 馬達控制介紹 30
第四章 伺服器架設與建立App 31
4.1伺服器與網站架設 31
4.1.1 Apache 2 + PHP 32
4.1.2 Flask微框架網頁 32
4.1.3 Socket傳輸 33
4.2手機應用程式建立 34
第五章 執行流程與模式設計 35
5.1程式執行流程 35
5.2留言提醒模式 36
5.3遠端控制模式 37
5.4飲酒互動模式 38
第六章 實驗結果 39
6.1實驗環境介紹 39
6.2本地互動模式 39
6.2.1 喝酒模式 39
6.2.2倒酒模式 40
6.3連網互動模式 42
6.3.1監控模式 42
6.3.2遠端留言與定時提醒 43
第七章 結論與未來展望 44
7.1結論 44
7.2未來展望 45
參考文獻 46
參考文獻

[1] 日本軟銀公司「Pepper」機器人相關網站,2017年6月
https://www.ald.softbankrobotics.com/en/cool-robots/pepper
[2] 台灣新創麗暘科技公司「Robotelf」機器人相關網站,2017年6月
http://www.robelf.com/
[3] 新創Ingen Dynamics公司「Aido」機器人相關網站,2017年6月
http://www.aidorobot.com/index.html#home
[4] 香港WowWee 公司「CHiP」機器人相關網站,2017年6月
http://wowwee.com/chip
[5] 日本MJI公司「Tapia」機器人相關網站,2017年6月
https://mjirobotics.co.jp/en/
[6] J. Heikkila and O. Silven, “A four-step camera calibration procedure with implicit image correction,” in Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 1106–1112, August 2002.
[7] Z. Zhang, “A flexible new technique for camera calibration,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 22, pp. 1330–1334, Nov. 2000.
[8] P. Viola and M. Jones, “Rapid object detection using a boosted cascade of simple features,” in Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, vol. 1, pp. I-511–I-518, Dec. 2001.
[9] K. Okada, M. Kojima, Y. Sagawa, T. Ichino, K. Sato and M. Inada, “Vision based behavior verification system of humanoid robot for daily environment tasks,” in Proceedings of IEEE-RAS International Conference on Humanoid Robots, Japan, Dec. 2006, pp.7-12.
[10] 伺服馬達AX-12 相關網站
http://en.robotis.com/index/index.php
[11] 詹翔閔(翁慶昌教授指導),“人型機器人機構設計與應用”,淡江大學電機工程研究所碩士論文,2008年6月。
[12] 潘奕璁(黃國勝教授指導),“嵌入式機械手臂運動控制器之實作”,國立中正大學電機工程研究所碩士論文,2010年6月。
[13] 蔡柏謙(王文俊教授指導),“基於逆向運動學之機械手臂控制”,國立中央大學電機工程研究所碩士論文,2011年6月。
[14] K. Telegenov, A. Shintemirov and Y. Tlegenov, “A low-cost open-source 3-d-printed three-finger gripper platform for research and educational purposes,” IEEE Access, vol. 3, pp. 638–647, May 2015.
[15] L. Atzori, A. Iera, G. Morabito, “The internet of things: a survey,” Computer Networks, vol. 54, issue 28, pp. 2787–2805, Oct. 2010.
[16] 英國樹莓派基金會相關網站,2017年6月
https://www.raspberrypi.org/
[17] Apache軟體基金會相關網站,2017年6月
http://www.apache.org/
[18] 美國MIT媒體實驗室「App inventor」相關網站,2017年6月
http://appinventor.mit.edu/explore/
[19] Pura Vida Apps 部落格,2017年6月
https://puravidaapps.com/postfile.php
[20] Ch. P. R. Sai, V. S. Datta and Sudheera, “Design of a smart remote,” in Proceedings of 2016 International Conference on Circuit, Power and Computing Technologies (ICCPCT), India, March 2016.
[21] 曲威光 著,雲端通訊與多媒體產業,全華圖書股份有限公司,2014.
[22] R. Lienhart and J. Maydt, “An extended set of Haar-like features for rapid object detection,” in Proceedings. International Conference on Image Processing, vol. 1, pp. I-900–I-903, Sept. 2002.
[23] 游秋榮(蕭耀榮教授指導),“利用立體視覺之自動停車系統設計與實踐”,國立台北科技大學車輛工程研究所碩士論文,2008年6月。
指導教授 王文俊(Wen-June Wang) 審核日期 2017-7-18
推文 facebook   plurk   twitter   funp   google   live   udn   HD   myshare   reddit   netvibes   friend   youpush   delicious   baidu   
網路書籤 Google bookmarks   del.icio.us   hemidemi   myshare   

若有論文相關問題,請聯絡國立中央大學圖書館推廣服務組 TEL:(03)422-7151轉57407,或E-mail聯絡  - 隱私權政策聲明