中大機構典藏-NCU Institutional Repository-提供博碩士論文、考古題、期刊論文、研究計畫等下載:Item 987654321/83999
English  |  正體中文  |  简体中文  |  全文笔数/总笔数 : 80990/80990 (100%)
造访人次 : 41643933      在线人数 : 1193
RC Version 7.0 © Powered By DSPACE, MIT. Enhanced by NTU Library IR team.
搜寻范围 查询小技巧:
  • 您可在西文检索词汇前后加上"双引号",以获取较精准的检索结果
  • 若欲以作者姓名搜寻,建议至进阶搜寻限定作者字段,可获得较完整数据
  • 进阶搜寻


    jsp.display-item.identifier=請使用永久網址來引用或連結此文件: http://ir.lib.ncu.edu.tw/handle/987654321/83999


    题名: Embedded Draw-down Constraint by Deep Reinforcement Learning for Foreign Exchange Trading
    作者: 林聖皓;Lin, Sheng-Hao
    贡献者: 資訊工程學系
    关键词: 深度增強式學習;資金管理;凱莉公式;GARCH模型;Deep Reinforcement Learning;Money Management;Kelly Criterion;GARCH Model
    日期: 2020-07-28
    上传时间: 2020-09-02 17:52:16 (UTC+8)
    出版者: 國立中央大學
    摘要: 資金管理或資產分配始終是交易領域的研究焦點。自 Markowitz 在 1952 年提出現代投資組合理論以來,已經吸引了許多人才來解決這個令人著迷的問題。在這些新近引入的方法中,凱莉公式 (Kelly Criterion) 是最被受矚目的焦點之一。其提供了一種簡潔的方法,可以為賭局玩家和金融市場投資者提供最佳的投資比例,長期而言,凱莉公式可以最大化參與者的期望對數報酬。但是,凱莉公式存在一個缺陷,即每個投資者通常都有自己的風險承受能力,而從凱利j公式得出的最適投資比率忽略了投資下行風險。在此研究,我們不僅嘗試使用基於機率的方法對風險進行捕捉,而且,我們修改了深度強化學習的獎勵函數 (reward function) 以考慮下行風險。綜上所述,經過改進後的深度強化學習可以納入投資者的風險承受能力,而不是僅單純極大化投資者長期財富。最後,我們使用DXY,GBP/USD 和 EUR/USD 作為訓練和驗證資料集的投資標的,並且僅考慮單一資產的情況。結果證明,我們對獎勵函數的改進確實表現出令人興奮的結果。當所需的MDD高於3%時,其機率平均高於70%。;Money management, or asset allocation, is always the center in the area of trading. Since the modern portfolio theory proposed by Markowitz in 1952, it already attracts lots of talents into this fascinated problem. Among these newly introduced approaches, the Kelly criterion is one of the shining stars. It provides an elegant way to give players and investors an optimal bidding fraction which maximizes their logarithm wealth in the long run. However, it ignores a reality that each investor usually has his risk tolerance, and the fraction came out from the Kelly criterion disregard the down-side risk. In this study, we not only try to use a probability-based approach to model the risk but also, we revise the reward function of the deep reinforcement learning to consider the down-side risk. To sum up, the revised deep reinforcement learning can consider an investor’s risk tolerance rather than a naive reward function which only maximizes the return. Finally, we use DXY, GBP/USD, and EUR/USD as the underlyings of training and validation data set, and only consider the case of a single asset. The result reveals that our revision on the reward function indeed come out with an exciting performance. When the desired MDD is above 3%, the probability is averagely above 70%.
    显示于类别:[資訊工程研究所] 博碩士論文

    文件中的档案:

    档案 描述 大小格式浏览次数
    index.html0KbHTML80检视/开启


    在NCUIR中所有的数据项都受到原著作权保护.

    社群 sharing

    ::: Copyright National Central University. | 國立中央大學圖書館版權所有 | 收藏本站 | 設為首頁 | 最佳瀏覽畫面: 1024*768 | 建站日期:8-24-2009 :::
    DSpace Software Copyright © 2002-2004  MIT &  Hewlett-Packard  /   Enhanced by   NTU Library IR team Copyright ©   - 隱私權政策聲明