博碩士論文 102423010 詳細資訊




以作者查詢圖書館館藏 以作者查詢臺灣博碩士 以作者查詢全國書目 勘誤回報 、線上人數:50 、訪客IP:3.133.146.246
姓名 沈敬諭(Ching-yu Shen)  查詢紙本館藏   畢業系所 資訊管理學系
論文名稱 八卦類項之特徵分類研究
(Feature Attribute Research of Bagua)
相關論文
★ 探討國內田徑競賽資訊系統-以103年全國大專田徑公開賽資訊系統為例★ 生物晶片之基因微陣列影像分析之研究
★ 台灣資訊家電產業IPv6技術地圖與發展策略之研究★ 台灣第三代行動通訊產業IPv6技術地圖與發展策略之研究
★ 影響消費者使用電子書閱讀器採納意願之研究★ 以資訊素養映對數位學習平台功能之研究
★ 台商群聚指標模式與資料分析之研究★ 未來輪輔助軟體發展之需求擷取研究
★ 以工作流程圖展現未來研究方法配適於前瞻研究流程之研究★ 以物件導向塑模未來研究方法配適於前瞻研究之系統架構
★ 應用TRIZ 探討核心因素 建構電子商務新畫布★ 企業策略資訊策略人力資源管理策略對組織績效的影響
★ 採用Color Petri Net方法偵測程式原始碼緩衝區溢位問題★ 簡單且彈性化的軟體代理人通訊協定之探討與實作
★ 利用分析層級程序法探討台灣中草藥製造業之關鍵成功因素★ 利用微陣列資料分析於基因調控網路之建構與預測
檔案 [Endnote RIS 格式]    [Bibtex 格式]    [相關文章]   [文章引用]   [完整記錄]   [館藏目錄]   [檢視]  [下載]
  1. 本電子論文使用權限為同意立即開放。
  2. 已達開放權限電子全文僅授權使用者為學術研究之目的,進行個人非營利性質之檢索、閱讀、列印。
  3. 請遵守中華民國著作權法之相關規定,切勿任意重製、散佈、改作、轉貼、播送,以免觸法。

摘要(中) 《易經》為中國古人的智慧,內涵博大精深且嚴謹之邏輯系統,兼具深層寓意,使用抽象的符號組合表達出世間萬種事物;在《易經》當中,八卦為《易經》之基礎,分別為乾(☰)、兌(☱)、離(☲)、震(☳)、巽(☴)、坎(☵)、艮(☶)、坤(☷)。《易經》之三大內涵為「理、象、數」,八卦類化係易經之象數中相當重要之一部分,所謂「無象不成占、無數不能斷」,占卜時可得象、數,再搭配上類化之事物,便可得占求之解。但因每個人對於易經之解釋與理解不一,且目前並沒有較為有效的方法來明確的指出事物所屬之八卦類項,因此本研究希望使用機器學習之監督式學習來解決八卦類項之類化問題,將萬物分為七個事項,為人物、情事、身體、疾病、動物、靜物、建物,並找出各事項之特徵屬性與屬性值。利用特徵屬性與屬性值建立七個事項之資料集。透過決策樹、k-近鄰演算法與支援向量機三種分類演算法,訓練出不同分類器,並比較不同分類器之效能。比較原始與重新取樣後之資料集訓練結果,在C4.5、k-近鄰演算法與支援向量機三種分類演算法中,k-近鄰演算法表現出最好的分類精確度。本研究結果提供欲對八卦類項之類化探討之研究者們提供一個較為科學性之起始;另外,對一般大眾而言,可利用研究結果之分類器得到世界上某種事物所屬之八卦類項,並利用於卜卦、風水與中醫等領域。
摘要(英) I Ching is the wisdom of Chineses ancient and contains extensice and profound logical system. There has deep implied meaning in I Ching. I Ching uses abstract symbols to present everything in the world. Bagua that created by Fu Xi is the basic of I Ching, and including Qián (☰), Duì (☱), Lí (☲), Zhèn (☳), Xùn (☴), Kǎn (☵), Gèn (☶) and Kūn (☷). The connotations of I Ching are Philosophy, Image and Number and the generalization of Bagua is the most important part of Image and Number. Image and Number will be obtained from practise divination, and collocate with things of generalization to acquire the answer of divination. Howerer, everyone has diverse explaination and different understanding of I Ching, and there did not have an effective method to specifically refer things to Bagua. Hence, this research uses supervised learning of machine learning to solve the problems of generalization of Bagua. Everything in the world have been grouped by seven subject including human, situation, body, disease, object and building, and feature attributes and property values of every subject have been found. This research utilized the feature attributes and property values to establish datasets of seven subjects. C4.5, k- nearest neighbors algorithm and support vector machine have been applied to produce different classifiers and compare the performances of classifiers. After comparing original datasets and resampling dataset, kNN presented the most efficient accuracy of classification among C4.5, kNN and SVM. This research provides an empirical origination of generalization of Bagua. The most efficient accuracy of object is closed to 90%. This result can improve the practicability of Bagua divination.
關鍵字(中) ★ 八卦
★ 分類
★ 監督式學習
★ k-近鄰演算法
★ 支援向量機
★ C4.5
關鍵字(英) ★ Bagua
★ Classification
★ Supervised Learning
★ k-nearest neighbors (kNN)
★ Support Vector Machine (SVM)
★ C4.5
論文目次 摘要 i
Abstract ii
致謝 iii
目錄 iv
圖目錄 vi
表目錄 vii
第一章、 緒論 1
1-1 研究背景 1
1-2 動機 1
1-3 目的 2
第二章、 文獻探討 3
2-1 易經八卦 3
2-1-1 易經之起源 3
2-1-2 八卦之形成 4
2-2 八卦類項 6
2-2-1 乾 7
2-2-2 兌 8
2-2-3 離 9
2-2-4 震 10
2-2-5 巽 11
2-2-6 坎 12
2-2-7 艮 13
2-2-8 坤 14
2-3 機器學習 15
2-3-1 監督式學習 15
2-3-2 非監督式學習 16
2-4 分類演算法 16
2-4-1 決策樹演算法 16
2-4-2 k-近鄰演算法 18
2-4-3 支援向量機 19
第三章、 實驗方法 21
3-1 萬物類化事項 21
3-2 定義特徵屬性 23
3-2-1 人物 23
3-2-2 情事 24
3-2-3 身體 25
3-2-4 疾病 26
3-2-5 動物 27
3-2-6 靜物 28
3-2-7 建物 29
3-3 建置資料集 31
3-3-1 人物 31
3-3-2 情事 31
3-3-3 身體 34
3-3-4 疾病 35
3-3-5 動物 36
3-3-6 靜物 37
3-3-7 建物 38
3-4 實驗流程 40
3-4-1 分類演算法 40
3-4-2 處理與驗證 41
第四章、 結果與分析 44
4-1 人物資料集分類效果 44
4-2 情事資料集分類效果 46
4-3 身體資料集分類效果 48
4-4 疾病資料集分類效果 50
4-5 動物資料集分類效果 52
4-6 靜物資料集分類效果 54
4-7 建物資料集分類效果 56
4-8 小結 58
第五章、 結論 60
5-1 研究貢獻 62
5-2 研究限制 62
5-3 未來研究 63
參考文獻 64
附錄一、各事項資料集 66
參考文獻 英文文獻
﹝1﹞ Alpaydın, E. (2009). Introduction to Machine Learning: The MIT Press.
﹝2﹞ Berry, M. J., & Linoff, G. (1997). Data mining techniques: for marketing, sales, and customer support: John Wiley & Sons, Inc.
﹝3﹞ Breiman, L., Friedman, J., Stone, C. J., & Olshen, R. A. (1984). Classification and regression trees: CRC press.
﹝4﹞ Burges, C. J. (1998). A tutorial on support vector machines for pattern recognition. Data mining and knowledge discovery, 2(2), 121-167.
﹝5﹞ Cover, T., & Hart, P. (1967). Nearest neighbor pattern classification. Information Theory, IEEE Transactions on, 13(1), 21-27.
﹝6﹞ Han, E.-H. S., & Karypis, G. (2000). Centroid-based document classification: Analysis and experimental results: Springer.
﹝7﹞ John, G. H., Kohavi, R., & Pfleger, K. (1994). Irrelevant features and the subset selection problem. Paper presented at the Machine Learning: Proceedings of the Eleventh International Conference.
﹝8﹞ Kass, G. V. (1980). An exploratory technique for investigating large quantities of categorical data. Applied statistics, 119-127.
﹝9﹞ Kohavi, R. (1995). A study of cross-validation and bootstrap for accuracy estimation and model selection. Paper presented at the Ijcai.
﹝10﹞ Kreßel, U. H.-G. (1999). Pairwise classification and support vector machines. Paper presented at the Advances in kernel methods.
﹝11﹞ Lim, T.-S., Loh, W.-Y., & Shih, Y.-S. (2000). A comparison of prediction accuracy, complexity, and training time of thirty-three old and new classification algorithms. Machine learning, 40(3), 203-228.
﹝12﹞ Maglogiannis, I. G. (2007). Emerging artificial intelligence applications in computer engineering: real word AI systems with applications in eHealth, HCI, information retrieval and pervasive technologies (Vol. 160): Ios Press.
﹝13﹞ Mohri, M., Rostamizadeh, A., & Talwalkar, A. (2012). Foundations of machine learning: MIT press.
﹝14﹞ Murthy, S. K. (1998). Automatic construction of decision trees from data: A multi-disciplinary survey. Data mining and knowledge discovery, 2(4), 345-389.
﹝15﹞ Özçift, A. (2011). Random forests ensemble classifier trained with data resampling strategy to improve cardiac arrhythmia diagnosis. Computers in Biology and Medicine, 41(5), 265-271.
﹝16﹞ Qi, Y., Hauptmann, A., & Liu, T. (2003). Supervised classification for video shot segmentation. Paper presented at the Multimedia and Expo, 2003. ICME′03. Proceedings. 2003 International Conference on.
﹝17﹞ Quinlan, J. R. (1986). Induction of decision trees. Machine learning, 1(1), 81-106.
﹝18﹞ Quinlan, J. R. (1993). C4. 5: programs for machine learning: Elsevier.
﹝19﹞ Shami, M., & Verhelst, W. (2007). An evaluation of the robustness of existing supervised machine learning approaches to the classification of emotions in speech. Speech Communication, 49(3), 201-212.
﹝20﹞ Tsoumakas, G., & Katakis, I. (2006). Multi-label classification: An overview. Dept. of Informatics, Aristotle University of Thessaloniki, Greece.
﹝21﹞ Witten, I. H., & Frank, E. (2005). Data Mining: Practical machine learning tools and techniques: Morgan Kaufmann.

中文文獻
﹝1﹞ 孔繁詩. (1997). 易經說卦傳記卦變研究. 台北市: 晴園印刷.
﹝2﹞ 行政院主計處. (2011). 中華民國行業標準分類: 行政院主計處.
﹝3﹞ 余敦康. (2005). 易學今昔. 大陸: 廣西師範大學出版社.
﹝4﹞ 周春才. (2011). 漫畫易經. 台灣: 晶冠出版社.
﹝5﹞ 明福居士, & 信翰居士. (2011). 巧遇梅花易數. 台灣: 瑞成書局.
傅佩榮. (2010). 易想天開看人生. 台灣: 時報出版.
指導教授 薛義誠 審核日期 2015-7-13
推文 facebook   plurk   twitter   funp   google   live   udn   HD   myshare   reddit   netvibes   friend   youpush   delicious   baidu   
網路書籤 Google bookmarks   del.icio.us   hemidemi   myshare   

若有論文相關問題,請聯絡國立中央大學圖書館推廣服務組 TEL:(03)422-7151轉57407,或E-mail聯絡  - 隱私權政策聲明