博碩士論文 108552021 詳細資訊




以作者查詢圖書館館藏 以作者查詢臺灣博碩士 以作者查詢全國書目 勘誤回報 、線上人數:17 、訪客IP:3.145.175.243
姓名 湯澈(Che Tang)  查詢紙本館藏   畢業系所 資訊工程學系在職專班
論文名稱 基於深度學習之指數股票型基金趨勢預測
(Prediction of ETF Price Trend Based on Deep learning)
相關論文
★ Single and Multi-Label Environmental Sound Recognition with Gaussian Process★ 波束形成與音訊前處理之嵌入式系統實現
★ 語音合成及語者轉換之應用與設計★ 基於語意之輿情分析系統
★ 高品質口述系統之設計與應用★ 深度學習及加速強健特徵之CT影像跟骨骨折辨識及偵測
★ 基於風格向量空間之個性化協同過濾服裝推薦系統★ RetinaNet應用於人臉偵測
★ 金融商品走勢預測★ 整合深度學習方法預測年齡以及衰老基因之研究
★ 漢語之端到端語音合成研究★ 基於 ARM 架構上的 ORB-SLAM2 的應用與改進
★ 探討財經新聞與金融趨勢的相關性★ 基於卷積神經網路的情緒語音分析
★ 運用深度學習方法預測阿茲海默症惡化與腦中風手術存活★ 運用LLM自動生成食譜方法與系統
檔案 [Endnote RIS 格式]    [Bibtex 格式]    [相關文章]   [文章引用]   [完整記錄]   [館藏目錄]   至系統瀏覽論文 ( 永不開放)
摘要(中) 本論文將探討長短期記憶模型(Long Short-Term Memory)對股票市場每日收盤價預測之成效,研究目標對象為國內成分證券ETF中的數支股票。研究方法為將time step設定為一天,以每日的股市資訊為特徵值做預測,較接近現實的股票市場狀況。本研究選擇以元大台灣50(0050)、元大中型100(0051)、元大高股息(0056)及富邦台50(006208)四支熱門的ETF股票為分析對象。對於特徵點的選擇則是以技術面和籌碼面資料處理後篩選輸入。本論文會先設定超參數的維數及範圍,反覆測試並調整,以增進LSTM模型對個股之預測能力。為能呈現更理想的結果,後又在模型建置上結合超參數優化的功能。相較於傳統的網格搜索 (Grid Search)的方式,貝氏最佳化(Bayesian Optimization)運算效益更高。最後觀察到LSTM模型與貝氏參數最佳化,對於ETF股票收盤價之預測表現皆有一定的成效。
摘要(英) This Paper is discussing about the result that trying Long Short-Term Memory to predict closing prices of stocks.The research objects we chose ETFs tracking Taiwan stocks.Research method we set time step as one day. And we record market information as features to predict, make prediction result closer to reality market.In this research we chose four popular ETFs as research objects, including 0050, 0051, 0056, 006208. The choices of feature we picked some data of technical analysis and chip analysis, and input to model training after data pre-processing.In this research we will set dimension and space of hyper-parameters, repeat testing and adjustment to improve prediction ability on the stock.For getting better result, we combined hyperparameters tuning function on model structure. Bayesian Optimization have higher performance rather than traditional Grid Search.
Finally, we can learn that LSTM and Bayesian Optimization will boost prediction result of ETFs closing prices.
關鍵字(中) ★ LSTM
★ 貝氏
關鍵字(英) ★ LSTM
★ Bayesian
論文目次 摘要………………………………………………………………………………………………………………………………………v
英文摘要………………………………………………………………………………………………………………………..……iii
誌謝……………………………………………………………………………………………………………………………………..iv
目錄………………………………………………………………………………………………………………………………………v
圖目錄…………………………………………………………………………………………………………………………………vii
表目錄………………………………………………………………………………………………………………………………….ix
第 1 章 緒論………………………………………………………………………………………………………………………1
1-1研究背景與動機…………………………………………………………………………………………………….1
1-2研究目的……………………………………………………………………………………………………………..…1
第2章 背景知識及文獻探討…………………………………………………………………………………………..…2
2-1循環神經網路RNN………………………………………………………………………………………….….…2
2-2 長短期記憶模型Long Short-Term Memory……………………………………….3
2-3 啟動函數Activation Function………………………………………………….….….6
2-4 最佳方法Optimizer……………………………………….....………………………………….7
2-5 損失函數Loss Function…………………………………………………………………………….7
2-6 貝氏參數最佳化Bayesian Optimization………………………………….…….8
2-7 國內成分證券ETF……………………………………………………………………………………………….9
第3章 研究方法……………………………………………………………………………………….………………..………11
3-1 實驗環境介紹……………………………………………………………………………………….………….11
3-2 研究架構………………………………………………………………………………………………………...11
3-3 資料介紹………………………………………………………………………………………………………...12
3-4 研究流程說明……………………………………………………………………………….………………….14
3-4-1資料前處理……………………………………………………………………………….……….14
3-4-2模型建立………………………………………………………………………….………………..15
3-4-3結合貝氏參數最佳化…………………………………………………………………...15
3-4-4實驗結果分析…………………….………………………………………………………....15
第4章 研究結果及分析………………………………………………………………….……...........16
4-1長短期記憶模型LSTM之預測結果………………………………………………………...…16
4-2貝氏參數最佳化調整之預測結果…………………………………………………………….…25
4-3實驗結果分析……………………………..……………………………………………………………..……30
第5章 結論………………………………………………………………….……....................31
第6章 參考文獻………………………………………………………........................32
參考文獻 〔1〕Sepp Hochreiter, Jurgen Schmidhuber,“Long Short-Term Memory”,Neural
Computation,9(8),1735-1780,Terrence J. Sejnowski,Nov.1997.
〔2〕網路資料:Understanding LSTM Networks:
http://colah.github.io/posts/2015-08-Understanding-LSTMs/
〔3〕Vinod Nair,Geoffrey E. Hinton,“Rectified Linear Units Improve Restricted Boltzmann Machines”,ICML′10: Proceedings of the 27th International Conference on International Conference on Machine Learning,807-814,Haifa Israel,Jun. 2010
〔4〕Günter Klambauer,Thomas Unterthiner,Andreas Mayr,Sepp Hochreiter,“Self-Normalizing Neural Networks”,NIPS′17: Proceedings of the 31st International Conference on Neural Information Processing Systems,972–981,Long Beach California,America, Dec. 2017
〔5〕Djork-Arné Clevert, Thomas Unterthiner, Sepp Hochreiter ,”Fast and Accurate Deep Network Learning by Exponential Linear Units“, arXiv preprint arXiv:1511.07289, 2015.
〔6〕網路資料:Geoffrey Hinton: "Lecture 6e rmsprop: Divide the gradient by a running average of its recent magnitude":
https://www.cs.toronto.edu/~hinton/coursera/lecture6/lec6.pdf
〔7〕Diederik P.,Kingma,Jimmy Ba , Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014.
〔8〕James Bergstra,Daniel Yamins,David Cox ,”Making a Science of Model Search: Hyperparameter Optimization in Hundreds of Dimensions for Vision Architectures”, Proceedings of the 30th International Conference on Machine Learning, PMLR 28(1), 115-123, Atlanta GA ,America,June 2013.
〔9〕網路資料:台灣證交所ETF專區
https://www.twse.com.tw/zh/ETF/domestic
〔10〕網路資料:FindMind官網
https://finmind.github.io/quickstart/
指導教授 王家慶(Jia-Ching Wang) 審核日期 2021-10-8
推文 facebook   plurk   twitter   funp   google   live   udn   HD   myshare   reddit   netvibes   friend   youpush   delicious   baidu   
網路書籤 Google bookmarks   del.icio.us   hemidemi   myshare   

若有論文相關問題,請聯絡國立中央大學圖書館推廣服務組 TEL:(03)422-7151轉57407,或E-mail聯絡  - 隱私權政策聲明