中大機構典藏-NCU Institutional Repository-提供博碩士論文、考古題、期刊論文、研究計畫等下載:Item 987654321/93494
English  |  正體中文  |  简体中文  |  全文笔数/总笔数 : 80990/80990 (100%)
造访人次 : 41244827      在线人数 : 1133
RC Version 7.0 © Powered By DSPACE, MIT. Enhanced by NTU Library IR team.
搜寻范围 查询小技巧:
  • 您可在西文检索词汇前后加上"双引号",以获取较精准的检索结果
  • 若欲以作者姓名搜寻,建议至进阶搜寻限定作者字段,可获得较完整数据
  • 进阶搜寻


    jsp.display-item.identifier=請使用永久網址來引用或連結此文件: http://ir.lib.ncu.edu.tw/handle/987654321/93494


    题名: 刑事實務預判輔助之研究;On the practical legal judgement prediction from prosecutor indictments and court verdicts
    作者: 孫潤德;Sun, Ren-Der
    贡献者: 資訊工程學系
    关键词: 刑事判決預測;大型語言模型;LoRA;PEFT;Legal Judgement Prediction;Large Language Model;LoRA;PEFT
    日期: 2023-09-05
    上传时间: 2024-09-19 17:08:56 (UTC+8)
    出版者: 國立中央大學
    摘要: 法律判決預測(LJP)旨在基於案件之犯罪事實以預測判決結果(如法條、罪名和刑期)。這個領域大多相關研究都是基於法院判決書中所記載之犯罪事實所為模型之犯罪事實輸入。然而,每個判決書所記載之犯罪事實內容實際上都是基於起訴書的內容做延伸。除此外,過去相關研究之目的大多致力於服務法官,作為其工作上之輔助工具。然而實務上有更多的需求來自於檢察官起訴案件後,案件是否會被法官駁回或是法官不受理?如果被告無受法官處罰,則原因為何?若有處罰,則是受到有期徒刑還是罰款之處罰?是違反了哪一條法條與罪名?因此,在這項研究中,我們定義了三個新穎之LJP任務,分別為檢察官提供協助,包括起訴結果預測(LJP\#1)、刑事罰款預測(LJP\#2)和刑事刑期預測(LJP\#3)。

    本篇之研究係基於多任務學習(Multi-task Learning)架構,而在上述每個工作中之子任務間亦是具有相依關係,換言之,一項子任務之預測結果也影響了其他子任務之預測結果。在本篇論文中,對於子任務之間應用了不同之拓譜架構如IMN(Iteracitve Message Passing Network)及TopJudge與本篇研究提出結合IMN與TopJudge形成之拓譜架構並搭配不同之語言模型,如Word2Vec、BERT、Lawformer 進行LJP任務,比較子任務形成不同之拓譜架構並應用不同之語言模型對於效能之影響。此外,由於大型語言模型中的參數數量巨大,對每個LJP任務進行Full-Tuning的成本將變得越來越昂貴。為解決這個問題,我們採用了LoRA(Low-Rank Adaptation)架構,這是屬於一種Parameter-Efficient Fine-Tuning(PEFT)的技術,以減少訓練參數數量並節省計算成本與模型訓練時間。實驗結果顯示,使用LoRA進行Fine-Tuning不僅降低了訓練時間(45\%),甚至對某些LJP任務帶來了性能提升效果(2.5\%的Macro F1)。;Legal Judgment Prediction (LJP) aims to predict the judgement results (such as article, charge, and penalty) based on the criminal facts of the case. Most previous research in this field was based on criminal statements from court verdicts. However, each verdict actually is based on the content from indictments. For prosecutors, will the case be dismissed or processed? If the case is accepted, is the penalty a jail sentence or a fine? What is the charge and article violated? In this study, we therefore define three novel LJP tasks for prosecutors, including prosecution outcome prediction (LJP\#1), fine prediction (LJP\#2) and imprison prediction (LJP\#3).
    Due to the huge number of parameters in a large language model, the cost of full-tuning for each LJP task will become increasingly expensive.
    To solve this problem, we adopt the LoRA (Low-Rank Adaptation) architecture, a technique for parameter-efficient fine-tuning (PEFT) to reduce the number of tuned parameters and save computational cost/time. The experiments show that using LoRA for fine-tuning not only improves not only reduce training time (45\%) but also brings performance improvement effect (2.5\% F1) for some LJP tasks.
    显示于类别:[資訊工程研究所] 博碩士論文

    文件中的档案:

    档案 描述 大小格式浏览次数
    index.html0KbHTML21检视/开启


    在NCUIR中所有的数据项都受到原著作权保护.

    社群 sharing

    ::: Copyright National Central University. | 國立中央大學圖書館版權所有 | 收藏本站 | 設為首頁 | 最佳瀏覽畫面: 1024*768 | 建站日期:8-24-2009 :::
    DSpace Software Copyright © 2002-2004  MIT &  Hewlett-Packard  /   Enhanced by   NTU Library IR team Copyright ©   - 隱私權政策聲明