English  |  正體中文  |  简体中文  |  全文筆數/總筆數 : 80990/80990 (100%)
造訪人次 : 41634891      線上人數 : 2248
RC Version 7.0 © Powered By DSPACE, MIT. Enhanced by NTU Library IR team.
搜尋範圍 查詢小技巧:
  • 您可在西文檢索詞彙前後加上"雙引號",以獲取較精準的檢索結果
  • 若欲以作者姓名搜尋,建議至進階搜尋限定作者欄位,可獲得較完整資料
  • 進階搜尋


    請使用永久網址來引用或連結此文件: http://ir.lib.ncu.edu.tw/handle/987654321/95530


    題名: Sparse Butterfly Matrix Attention for Enhancing Transformer Performance
    作者: 邱柏瑋;Chiu, Po-Wei
    貢獻者: 資訊工程學系
    關鍵詞: 深度學習;DeepLearning
    日期: 2024-07-22
    上傳時間: 2024-10-09 16:59:29 (UTC+8)
    出版者: 國立中央大學
    摘要: 隨著處理長序列數據需求的增加,許多研究集中於提高模型性能和效率。在這項研究中,我們提出了一種基於 Transformer 架構的高效模型——Butterflyer。Butterflyer 旨在處理圖像、文本、路徑數據和數學運算等長序列數據。我們引入了一種創新的 Butterfly Attention 機制,該機制利用 Butterfly 矩陣的計算來替代傳統的自注意力機制,從而計算和捕捉不同的交互模式,提高了模型的性能。通過採用 Sophia 優化器,我們進一步提升了 Butterflyer 的訓練效率和性能。我們使用 Long Range Arena (LRA)基準數據集來評估 Butterflyer 的性能。實驗結果顯示,Butterflyer 在各種應用中表現出色,尤其在文本分類、圖像分類和文檔檢索等任務中,超越了目前最先進的模型。
    ;With the increasing demand for handling long sequential data, many studies have focused on improving model performance and efficiency. In this research, we propose Butterflyer, an efficient model based on the Transformer architecture. Butterflyer is designed to process long sequential data such as images, text, path data, and mathematical operations. We introduce an innovative Butterfly-Attention mech anism that replaces the traditional self-attention mechanism, utilizing Butterfly Matrices to compute and capture different interaction patterns, thereby enhancing computational efficiency and model performance. By employing the Sophia opti mizer, we further improve the training efficiency and performance of Butterflyer. We evaluate Butterflyer’s performance using the Long Range Arena (LRA) bench mark dataset. Experimental results show that Butterflyer demonstrates superior performance across various applications, particularly in tasks such as text classifi cation, image classification, and document retrieval, outperforming state-of-the-art models.
    顯示於類別:[資訊工程研究所] 博碩士論文

    文件中的檔案:

    檔案 描述 大小格式瀏覽次數
    index.html0KbHTML25檢視/開啟


    在NCUIR中所有的資料項目都受到原著作權保護.

    社群 sharing

    ::: Copyright National Central University. | 國立中央大學圖書館版權所有 | 收藏本站 | 設為首頁 | 最佳瀏覽畫面: 1024*768 | 建站日期:8-24-2009 :::
    DSpace Software Copyright © 2002-2004  MIT &  Hewlett-Packard  /   Enhanced by   NTU Library IR team Copyright ©   - 隱私權政策聲明