English  |  正體中文  |  简体中文  |  全文筆數/總筆數 : 80990/80990 (100%)
造訪人次 : 41630481      線上人數 : 3389
RC Version 7.0 © Powered By DSPACE, MIT. Enhanced by NTU Library IR team.
搜尋範圍 查詢小技巧:
  • 您可在西文檢索詞彙前後加上"雙引號",以獲取較精準的檢索結果
  • 若欲以作者姓名搜尋,建議至進階搜尋限定作者欄位,可獲得較完整資料
  • 進階搜尋


    請使用永久網址來引用或連結此文件: http://ir.lib.ncu.edu.tw/handle/987654321/89627


    題名: Bayesian Optimization for Hyperparameter Tuning with Robust Parameter Design
    作者: 黃雅若;Huang, Ya-Jo
    貢獻者: 統計研究所
    關鍵詞: 類神經網路;超參數優化;貝氏優化;穩健參數設計;Neural network;hyperparameter optimization;Bayesian optimization;expected improvement;robust parameter design
    日期: 2022-07-21
    上傳時間: 2022-10-04 11:49:55 (UTC+8)
    出版者: 國立中央大學
    摘要: 在機器學習領域中,超參數調整對於深度學習演算法來說是一個很重要的步驟,不同的超參數設定可以直接影響模型效能。而貝氏優化一直是超參數調整的熱門方法,貝氏優化利用迭代的方式,不斷更新先驗與後驗分佈來找出最佳超參數組合。本研究利用貝氏優化與穩健參數設計的概念,提出了一種新的超參數優化方法。在優化過程中,該方法將控制因子及噪音因子(例如:初始權重、訓練樣本的選取)納入考量,以期提高求得最佳超參數組合之準確度。在模擬及實證例子中,依據不同類型的問題,發現所提出的方法會比傳統貝氏優化方法找到更接近真實超參數組合的設定。;Tuning hyperparameters is crucial to the success of deep learning algorithms because it affects the model performance directly. Therefore, hyperparameter tuning has received great attention. Bayesian optimization has always been a popular option for hyperparameter tuning, which obtains optimal values of hyperparameters in a sequential manner. This thesis presents a new hyperparameter optimization method using the concept of robust parameter design. We identify several noise factors (e.g, initial weights or random splitting training samples) for optimization. Simulations show that the proposed method can find hyperparameter settings that are closer to the real hyperparameter setting.
    顯示於類別:[統計研究所] 博碩士論文

    文件中的檔案:

    檔案 描述 大小格式瀏覽次數
    index.html0KbHTML77檢視/開啟


    在NCUIR中所有的資料項目都受到原著作權保護.

    社群 sharing

    ::: Copyright National Central University. | 國立中央大學圖書館版權所有 | 收藏本站 | 設為首頁 | 最佳瀏覽畫面: 1024*768 | 建站日期:8-24-2009 :::
    DSpace Software Copyright © 2002-2004  MIT &  Hewlett-Packard  /   Enhanced by   NTU Library IR team Copyright ©   - 隱私權政策聲明