English  |  正體中文  |  简体中文  |  全文筆數/總筆數 : 78818/78818 (100%)
造訪人次 : 34719698      線上人數 : 1610
RC Version 7.0 © Powered By DSPACE, MIT. Enhanced by NTU Library IR team.
搜尋範圍 查詢小技巧:
  • 您可在西文檢索詞彙前後加上"雙引號",以獲取較精準的檢索結果
  • 若欲以作者姓名搜尋,建議至進階搜尋限定作者欄位,可獲得較完整資料
  • 進階搜尋


    請使用永久網址來引用或連結此文件: http://ir.lib.ncu.edu.tw/handle/987654321/65532


    題名: 基於多重時間描述之內涵式音樂檢索;Temporal Multi-Descriptors
    作者: 戴齊廷;Day,Chi-ting
    貢獻者: 通訊工程學系
    關鍵詞: 音樂檢索;翻唱歌曲;類神經網路;深度學習;Music Retrieval;Cover Song;Neural Network;Deep Learning
    日期: 2014-07-31
    上傳時間: 2014-10-15 17:02:58 (UTC+8)
    出版者: 國立中央大學
    摘要: 隨著多媒體壓縮技術、行動裝置與行動網路的蓬勃發展,透過串流平台或社群網站分享、下載各種多媒體影音資料已成為日常生活的一部分。而對於不經意聽到卻感興趣的歌曲,內涵式音樂檢索(Content Based Music Retrieval, CBMR)可直接利用歌曲內容如旋律、音色等特徵做為檢索依據,避免使用者無法描述其關鍵字或標注錯誤的情況。
    面對大量的檢索資料庫所耗費的大量比對時間,本研究提出以稀疏自編碼器(Sparse Auto Encoder, SAE)將片段時間的音訊Chroma特徵轉換為資訊含量較高的描述元(Descriptor),藉由學習找出相對關鍵的特徵增加檢索效能,並降低比對的特徵數量減少比對時間。實驗結果顯示,本研究提出之方法不僅節省50%以上的時間,也大幅提升MRR值,說明長時間的特徵更能描述歌曲檢索資訊。
    ;Nowadays, sharing or downloading multimedia resources from the internet has become part of our daily life. However, it is hard to find the particular music in such a tremendous amount of data on internet when it comes to searching the music with limited information. The Content Based Music Retrieval (CBMR) can direct get the desired music by using features extracted from the content as the keywords for searching.
    To deal with massive retrieval data, we use Chroma clip as input for the Sparse Auto Encoder (SAE) transferring feature to Descriptor before matching to reduce feature’s quantity, and learning which parts is more important for the input data. The experiment results show that our method provide over 50% matching time reduction and higher MRR compared with traditional approach.
    顯示於類別:[通訊工程研究所] 博碩士論文

    文件中的檔案:

    檔案 描述 大小格式瀏覽次數
    index.html0KbHTML453檢視/開啟


    在NCUIR中所有的資料項目都受到原著作權保護.

    社群 sharing

    ::: Copyright National Central University. | 國立中央大學圖書館版權所有 | 收藏本站 | 設為首頁 | 最佳瀏覽畫面: 1024*768 | 建站日期:8-24-2009 :::
    DSpace Software Copyright © 2002-2004  MIT &  Hewlett-Packard  /   Enhanced by   NTU Library IR team Copyright ©   - 隱私權政策聲明