中大機構典藏-NCU Institutional Repository-提供博碩士論文、考古題、期刊論文、研究計畫等下載:Item 987654321/83795
English  |  正體中文  |  简体中文  |  全文笔数/总笔数 : 80990/80990 (100%)
造访人次 : 41262639      在线人数 : 534
RC Version 7.0 © Powered By DSPACE, MIT. Enhanced by NTU Library IR team.
搜寻范围 查询小技巧:
  • 您可在西文检索词汇前后加上"双引号",以获取较精准的检索结果
  • 若欲以作者姓名搜寻,建议至进阶搜寻限定作者字段,可获得较完整数据
  • 进阶搜寻


    jsp.display-item.identifier=請使用永久網址來引用或連結此文件: http://ir.lib.ncu.edu.tw/handle/987654321/83795


    题名: 使用預訓練編碼器提升跨語言摘要能力;Improving Cross-Lingual Text Summarization using Pretrained Encoder
    作者: 莊家閔;Chuang, Chia-Min
    贡献者: 軟體工程研究所
    关键词: 文本摘要;預訓練模型;跨語言處理;Summarization;Pretraining language model;Cross-lingual
    日期: 2020-07-31
    上传时间: 2020-09-02 17:07:01 (UTC+8)
    出版者: 國立中央大學
    摘要: 跨語言文本摘要是透過機器將一種語言的文章轉換成另
    一種語言的摘要,先前的研究大多將該任務以兩步驟方法處
    理──「先翻譯後摘要」或「先摘要後翻譯」。但是,這兩
    種方法皆會有翻譯錯誤的問題,且其中的機器翻譯模型難以
    隨著摘要任務繼續更新微調(fine-tune)。針對上述問題,
    我們採用預訓練跨語言編碼器以向量表示(represent)不同
    語言的輸入,將其映射至相同的向量空間。預訓練方法已被
    廣泛應用在各種自然語言生成任務中,並取得優異的模型表
    現。此編碼器使得模型在學習摘要能力的過程中,同時保有
    跨語言能力。本研究中,我們實驗三種不同的微調方法,
    證明預訓練跨語言編碼器可以學習單詞階層(word-level)
    的語意特徵。在我們所有的模型組態裡,最優異的模型可
    在ROUGE-1分數上,超越基準模型3分。
    ;Cross-lingual text summarization (CLTS) is the task to generate a summary in one language given a document in a another language. Most of the previous work consider CLTS as two sub-tasks: translate-then-summarize and summarize-then-translate. Both of them are suffered from translation error and the translation system is hard to be fine-tuned with text summarization directly. To
    deal with the above problems, we utilize a pretrained cross-lingual encoder, which has been demonstrated the effectiveness in natural language generation, to represent text inputs from from different languages. We augment a standard sequence-to-sequence (Seq2Seq) network with our pretrained cross-lingual encoder so as to capture cross-lingual contextualized word representation. We show that the pretrained cross-lingual encoder can be fine-tuned on a text summarization dataset while keeping the cross-lingual ability. We experiment three different fine-tune strategies and show that the pretrained encoder can capture cross-lingual semantic features. The best of the proposed models obtains 42.08 Rouge-1 on ZH2ENSUM datasets [Zhu et al., 2019], significantly improving
    our baseline model by more than 3 Rouge-1.
    显示于类别:[軟體工程研究所 ] 博碩士論文

    文件中的档案:

    档案 描述 大小格式浏览次数
    index.html0KbHTML246检视/开启


    在NCUIR中所有的数据项都受到原著作权保护.

    社群 sharing

    ::: Copyright National Central University. | 國立中央大學圖書館版權所有 | 收藏本站 | 設為首頁 | 最佳瀏覽畫面: 1024*768 | 建站日期:8-24-2009 :::
    DSpace Software Copyright © 2002-2004  MIT &  Hewlett-Packard  /   Enhanced by   NTU Library IR team Copyright ©   - 隱私權政策聲明