中大機構典藏-NCU Institutional Repository-提供博碩士論文、考古題、期刊論文、研究計畫等下載:Item 987654321/84036
English  |  正體中文  |  简体中文  |  全文笔数/总笔数 : 78818/78818 (100%)
造访人次 : 35018954      在线人数 : 649
RC Version 7.0 © Powered By DSPACE, MIT. Enhanced by NTU Library IR team.
搜寻范围 查询小技巧:
  • 您可在西文检索词汇前后加上"双引号",以获取较精准的检索结果
  • 若欲以作者姓名搜寻,建议至进阶搜寻限定作者字段,可获得较完整数据
  • 进阶搜寻


    jsp.display-item.identifier=請使用永久網址來引用或連結此文件: http://ir.lib.ncu.edu.tw/handle/987654321/84036


    题名: 探討使用多面向方法在文字不平衡資料集之分類問題影響;The Effectiveness of Multifaceted Approach to Class Imbalance Text Classification
    作者: 陳芃諭;Chen, Peng-Yu
    贡献者: 資訊管理學系
    关键词: 類別不平衡;文字分類;SMOTE;機器學習;深度學習;class imbalance;text classification;SMOTE;machine learning;deep learning
    日期: 2020-07-20
    上传时间: 2020-09-02 17:57:43 (UTC+8)
    出版者: 國立中央大學
    摘要: 文字類別不平衡任務在許多情境與應用常常出現,例如: 垃圾郵件偵測、文本分類任務...等。處理類別不平衡問題時,往往都會採用重採樣方法(resampling techniques),然而,處理類別不平衡問題時,需要考量到採納不同面向方法所帶來的影響。在本論文,我們觀察了不同面向對於文字不平衡資料集在分類上所帶來的影響,例如: 不同種的資料表示法(TF-IDF, Word2Vec, ELMo 以及 BERT), 重採樣方法(SMOTE)以及生成方法(VAE)在不同的類別不平衡比例。我們也納入多種分類器與上述方法做組合搭配,觀察差異為何。
    從實驗結果來看,我們可以推薦一個較佳的組合方法處理文字類別不平衡的資料集。ELMo, SMOTE和SVM會是適合處理文字不平衡資料集,然而當資料集的資料量越大時,TF-IDF, SMOTE和SVM會是較佳的組合結果。
    我們發現在處理文字不平衡資料集時,資料表示法、合成方法、生成方法、分類器、類別不平衡比例與資料量大小都是會互相影響。此外,比較分類器訓練在合成資料或是生成資料時,SMOTE的結果會比VAE來的較好,甚至在TF-IDF, SMOTE以及SVM此組合可以超越真實資料的結果。
    本論文中,我們採納TF-IDF和其他embedding方法,並且關注在SMOTE與VAE,以及比較合成資料、生成資料與原始資料。我們甚至觀察不同的類別不平衡比例與資料量大小所帶來的影響。
    ;Class imbalance is present in many text classification applications, for example, text polarity classification, spam detection, topic classification and so on. Resampling techniques are commonly used to deal with class imbalance problems. However, it takes a multifaceted approach to effectively address the class imbalance problems. In this study, we investigate the effectiveness of different text representations (TF-IDF, Word2Vec, ELMo and BERT), resampling techniques (SMOTE) and generative techniques (VAE) on various class imbalance ratios. We also evaluate how different classifiers perform with these techniques.
    From the experiment results, we can devise a general recommendation for dealing with class imbalance in text classification. The combination of ELMo, SMOTE and SVM is suitable for dealing with the imbalance dataset. However, as the larger training data set is, the combination of TF-IDF, SMOTE and SVM could be more suitable.
    We find that the perspectives of dealing with the class imbalance dataset are affected to each other, like data representation, synthetic method, generative method, classifiers, class imbalance ratio and the training data size. Besides, comparing that the classifiers are trained with the synthetic data and generative data, SMOTE still outperforms than VAE. Even the result of the combination of TF-IDF, SMOTE and SVM can surpass the original data.
    In our study, we take TF-IDF and the embedding methods be the data representation in the experiment, and focus on SMOTE and VAE, also compare the result of synthetic data and generative data with original data. Even considering the class imbalance and training data size to be one of the perspectives in our study.
    显示于类别:[資訊管理研究所] 博碩士論文

    文件中的档案:

    档案 描述 大小格式浏览次数
    index.html0KbHTML160检视/开启


    在NCUIR中所有的数据项都受到原著作权保护.

    社群 sharing

    ::: Copyright National Central University. | 國立中央大學圖書館版權所有 | 收藏本站 | 設為首頁 | 最佳瀏覽畫面: 1024*768 | 建站日期:8-24-2009 :::
    DSpace Software Copyright © 2002-2004  MIT &  Hewlett-Packard  /   Enhanced by   NTU Library IR team Copyright ©   - 隱私權政策聲明