English  |  正體中文  |  简体中文  |  全文筆數/總筆數 : 80990/80990 (100%)
造訪人次 : 41631562      線上人數 : 4094
RC Version 7.0 © Powered By DSPACE, MIT. Enhanced by NTU Library IR team.
搜尋範圍 查詢小技巧:
  • 您可在西文檢索詞彙前後加上"雙引號",以獲取較精準的檢索結果
  • 若欲以作者姓名搜尋,建議至進階搜尋限定作者欄位,可獲得較完整資料
  • 進階搜尋


    請使用永久網址來引用或連結此文件: http://ir.lib.ncu.edu.tw/handle/987654321/81061


    題名: 應用記憶增強機制階層式深度學習模型於短文對話之對話品質與事件偵測任務;Dialogue Quality and Nugget Detection for Short Text Conversation based on Hierarchical Multi-Stack Model with Memory Enhance Structure
    作者: 程祥恩;Cherng, Hsiang-En
    貢獻者: 資訊工程學系
    關鍵詞: 對話品質;事件偵測;深度學習;自然語言處理;Dialogue Quality;Nugget Detection;Deep Learning;Natural Language Processing
    日期: 2019-07-01
    上傳時間: 2019-09-03 15:31:53 (UTC+8)
    出版者: 國立中央大學
    摘要: 隨著自然語言處理技術的進步,Waston, Siri, Alexa等自動對話系統已成為最重要的應用之一。近年來,企業嘗試建立自動客服聊天機器人,讓機器能學習解決客人的問題,降低客服人員成本並提供24小時不間斷的客戶服務。
    然而,目前評估聊天機器人的方法高度仰賴人類評估,並沒有有效的方法能夠快速分析一個聊天機器人的好壞。因此,NTCIR-14提出了Short Text Conversation 3 (STC-3)任務,包含對話品質(Dialogue Quality)和事件偵測(Nugget Detection)子任務,提供有效的指標幫助我們對能自動對聊天機器人進行評估。在本研究中,我們使用深度學習方法來探討DQ和ND子任務,透過深度學習方法來分析一段對話的優劣。
    DQ子任務是將一則對話進行對話品質分析,分析的指標包含對話完整性(A-score)、對話效率(E-score)以及顧客滿意度(S-score),ND子任務則是分析一段對話中每一句話語的對話行為,藉此分析對話的架構與邏輯性。
    我們使用多層深度學習模型解決DQ和ND子任務,使用話語層(utterance layer)、上下文層(context layer) 和記憶層(memory layer)來學習對話表示法,並使用門控機制(gating mechanism)於話語層和上下文層。我們也嘗試使用BERT[9]和多層CNN作為句子表示,實驗結果顯示BERT的效能優於多層CNN。最後,我們提出的模型在DQ和ND子任務中均優於所有參賽者的模型與任務發起者所提出的baseline模型。
    ;With the development of Natural Language Processing (NLP) Automatic question-answering system such as Waston, Siri, Alexa, has become one of the most important NLP applications. Nowadays, enterprises try to build automatic custom service chatbots to save human resources and provide a 24-hour customer service.
    However, evaluation of chatbots currently relied greatly on human annotation which cost a plenty of time. Thus, Short Text Conversation 3 (STC-3) in NTCIR-14 has initiated a new subtask called Dialogue Quality (DQ) and Nugget Detection (ND) which aim to automatically evaluate dialogues generated by chatbots. In this paper, we consider the DQ and ND subtasks for STC-3 using deep learning method.
    The DQ subtask aims to judge the quality of the whole dialogue using three measures: Task Accomplishment (A-score), Dialogue Effectiveness (E-score) and Customer Satisfaction of the dialogue (S-score). The ND subtask, on the other hand, is to classify if an utterance in a dialogue contains a nugget, which is similar to dialogue act (DA) labeling problem.
    We applied a general model with utterance layer, context layer and memory layer to learn dialogue representation for both DQ and ND subtasks and use gating and attention mechanism at multiple layers including: utterance layer and context layer. We also tried BERT and multi-stack CNN as sentence representation. The result shows that BERT produced a better utterance representation than multi-stack CNN for both DQ and ND subtasks and outperform other participants’ model and the baseline models proposed by the organizer on Ubuntu customer helpdesk dialogues corpus.
    顯示於類別:[資訊工程研究所] 博碩士論文

    文件中的檔案:

    檔案 描述 大小格式瀏覽次數
    index.html0KbHTML163檢視/開啟


    在NCUIR中所有的資料項目都受到原著作權保護.

    社群 sharing

    ::: Copyright National Central University. | 國立中央大學圖書館版權所有 | 收藏本站 | 設為首頁 | 最佳瀏覽畫面: 1024*768 | 建站日期:8-24-2009 :::
    DSpace Software Copyright © 2002-2004  MIT &  Hewlett-Packard  /   Enhanced by   NTU Library IR team Copyright ©   - 隱私權政策聲明