博碩士論文 111522128 詳細資訊




以作者查詢圖書館館藏 以作者查詢臺灣博碩士 以作者查詢全國書目 勘誤回報 、線上人數:53 、訪客IP:18.224.69.44
姓名 張文京(Wen-Ching Chang)  查詢紙本館藏   畢業系所 資訊工程學系
論文名稱 應用於亮度偏移胚布影像的瑕疵檢測
(Defect Detection for Fabric Images with Brightness Distribution Shift)
相關論文
★ 基於最大期望算法之分析陶瓷基板機器暗裂破片率★ 基於時間序列預測的機器良率預測
★ 基於OpenPose特徵的行人分心偵測★ 建構深度學習CNN模型以正確分類傳統AOI模型之偵測結果
★ 一種結合循序向後選擇法與回歸樹分析的瑕疵肇因關鍵因子擷取方法與系統-以紡織製程為例★ 融合生成對抗網路及領域知識的分層式影像擴增
★ 針織布異常偵測方法研究★ 基於工廠生產資料的異常機器維修預測
★ 萃取駕駛人在不同環境之駕駛行為方法★ 基於刮痕瑕疵資料擴增的分割拼接影像生成
★ 應用卷積神經網路於航攝影像做基於坵塊的水稻判釋之研究★ 採迴歸樹進行規則探勘以有效同時降低多種紡織瑕疵
★ 應用增量式學習於多種農作物判釋之研究★ 應用自動化測試於異質環境機器學習管道之 MLOps 系統
★ 農業影像二元分類:坵塊分離的檢測★ 應用遷移學習於胚布瑕疵檢測
檔案 [Endnote RIS 格式]    [Bibtex 格式]    [相關文章]   [文章引用]   [完整記錄]   [館藏目錄]   至系統瀏覽論文 ( 永不開放)
摘要(中) 本研究旨在找到一種瑕疵檢測方法,對於計畫委託方工廠紡織的坯布影像具有良
好的瑕疵檢測能力,該胚布資料集具有具有紋理特徵、亮度域偏移及瑕疵稀缺等特性。
在工業異常偵測的相關研究中,許多模型的設計基於受限的實驗環境。例如,常用的
MVTec AD 工業資料集 [1],這個資料集中包含 15 種不同的物件及紋理類別的圖像,
這些圖像均在相同的拍攝角度、距離及光線條件下拍攝。然而,在工廠實際應用中,
影像會具有多樣的變異性,可能沒辦法固定角度、距離及光線等變數。此時基於受限
實驗環境研發出來的模型,當要應用在實際工廠中時,可能會因為這樣的變數,使得
研究的成果沒辦法完美地轉移到實際應用。待測影像的亮度與模型訓練時的影像不同,
是工廠應用常遇到的域偏移問題。本研究深度探討胚布紋理資料集中亮度分佈偏移的
解決方案,提出了一種針對胚布紋理以及亮度域偏移影像的異常偵測方法,達到最先
進的的異常偵測能力。
摘要(英) In the field of industrial anomaly detection, many models are designed based on con-
trolled experimental environments. For instance, the widely used MVTec AD industrial
dataset includes images of 15 different object and texture categories.[1] However, these
images share the same shooting angle, distance, and stable lighting conditions. In real
factory applications, images exhibit a greater variety of variations, and models developed
in restricted experimental settings may not perfectly transfer to practical applications due
to this variability. One common distribution shift problem encountered in factory settings
is the difference in brightness between the test images and the training data, as seen in the
greige fabric images at factory. Therefore, this study aims to find a greige fabric defect
detection method that maintains high detection performance even when there is a bright-
ness distribution shift in the test images. We have developed a semi-supervised anomaly
detection method that can handle brightness domain shifts. This image gradient-based
semi-supervised anomaly detection approach has shown effective results in detecting de-
fects in greige fabric and successfully addresses the issue of brightness distribution shift,
achieving state-of-the-art anomaly detection capabilities.
關鍵字(中) ★ 異常偵測
★ 影像梯度
★ 亮度分佈偏移
★ 坯布
關鍵字(英) ★ Anomaly detection
★ greige fabric
★ Brightness distribution shift
★ Image gradient
論文目次 摘要 xiii
Abstract xv
誌謝 xvii
目錄 xix
一、 緒論 1
1.1 研究背景 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 研究動機與目的 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 問題定義 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 研究貢獻 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
二、 相關研究 5
2.1 工業異常偵測 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 具有分佈偏移的工業影像異常偵測 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2.1 基於遮罩的域偏移異常偵測 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2.2 學習不變特徵的的域偏移異常偵測 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
三、 提出的方法 11
3.1 隨機灰度調整 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2 遮罩訓練 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.3 模型架構 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.4 損失函數 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.5 異常分數計算 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.6 模型訓練方法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
四、 實驗與結果討論 19
4.1 實驗設備及環境 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.2 實驗資料集介紹 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.2.1 第一個資料集:計畫委託方工廠紡織影像 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.2.2 第二個資料集:模擬亮度分佈偏移的計畫委託方工廠紡織影像 . . . . . 21
4.2.3 交叉訓練 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.3 評估方法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.3.1 AUROC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.3.2 t 檢定 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.4 實驗一:真實亮度域偏移測試 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.4.1 實驗動機與目的 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.4.2 實驗方法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.4.3 實驗結果 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.5 實驗二:模擬亮度域偏移測試 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.5.1 實驗動機與目的 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.5.2 實驗方法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.5.3 輕微亮度域偏移資料集實驗 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.5.4 中等亮度域偏移資料集實驗 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.5.5 顯著亮度域偏移資料集實驗 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.5.6 嚴重亮度域偏移資料集實驗 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.5.7 極度亮度域偏移資料集實驗 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.5.8 實驗結論 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.6 實驗三:評估模型大小 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.6.1 實驗動機與目的 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.6.2 實驗方法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.6.3 實驗結果 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
五、 結論與未來展望 33
5.1 結論 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.2 未來展望 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
參考文獻 35
附錄 A 消融實驗 37
A.1 實驗動機與目的 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
A.2 實驗方法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
A.3 實驗結果 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
參考文獻 [1] P. Bergmann, M. Fauser, D. Sattlegger, and C. Steger, “Mvtec ad–a comprehensive real-
world dataset for unsupervised anomaly detection,” in Proceedings of the IEEE/CVF
conference on computer vision and pattern recognition, 2019, pp. 9592–9600.
[2] T. Cao, J. Zhu, and G. Pang, “Anomaly detection under distribution shift,” in Proceedings
of the IEEE/CVF International Conference on Computer Vision, 2023, pp. 6511–6523.
[3] Z. Zhang, Z. Zhao, X. Zhang, C. Sun, and X. Chen, “Industrial anomaly detection with
domain shift: A real-world dataset and masked multi-scale reconstruction,” Computers in
Industry, vol. 151, p. 103 990, 2023.
[4] T. Liu, B. Li, X. Du, et al., “Fair: Frequency-aware image restoration for industrial visual
anomaly detection,” arXiv preprint arXiv:2309.07068, 2023.
[5] O. Ronneberger, P. Fischer, and T. Brox, “U-net: Convolutional networks for biomedical
image segmentation,” in Medical image computing and computer-assisted intervention–
MICCAI 2015: 18th international conference, Munich, Germany, October 5-9, 2015, pro-
ceedings, part III 18, Springer, 2015, pp. 234–241.
[6] V. Zavrtanik, M. Kristan, and D. Skočaj, “Reconstruction by inpainting for visual anomaly
detection,” Pattern Recognition, vol. 112, p. 107 706, 2021.
[7] S. Akcay, A. Atapour-Abarghouei, and T. P. Breckon, “Ganomaly: Semi-supervised anomaly
detection via adversarial training,” in Computer Vision–ACCV 2018: 14th Asian Confer-
ence on Computer Vision, Perth, Australia, December 2–6, 2018, Revised Selected Papers,
Part III 14, Springer, 2019, pp. 622–637.
[8] S. Akçay, A. Atapour-Abarghouei, and T. P. Breckon, “Skip-ganomaly: Skip connected
and adversarially trained encoder-decoder anomaly detection,” in 2019 International Joint
Conference on Neural Networks (IJCNN), IEEE, 2019, pp. 1–8.
[9] Z. Wang, A. C. Bovik, H. R. Sheikh, and E. P. Simoncelli, “Image quality assessment:
From error visibility to structural similarity,” IEEE transactions on image processing,
vol. 13, no. 4, pp. 600–612, 2004.
[10] E. Bauer and R. Kohavi, “An empirical comparison of voting classification algorithms:
Bagging, boosting, and variants,” Machine learning, vol. 36, pp. 105–139, 1999.
[11] J. M. Prewitt et al., “Object enhancement and extraction,” Picture processing and Psy-
chopictorics, vol. 10, no. 1, pp. 15–19, 1970.
[12] W. Xue, L. Zhang, X. Mou, and A. C. Bovik, “Gradient magnitude similarity deviation: A
highly efficient perceptual image quality index,” IEEE transactions on image processing,
vol. 23, no. 2, pp. 684–695, 2013.
指導教授 梁德容(De-Ron Liang) 審核日期 2024-7-27
推文 facebook   plurk   twitter   funp   google   live   udn   HD   myshare   reddit   netvibes   friend   youpush   delicious   baidu   
網路書籤 Google bookmarks   del.icio.us   hemidemi   myshare   

若有論文相關問題,請聯絡國立中央大學圖書館推廣服務組 TEL:(03)422-7151轉57407,或E-mail聯絡  - 隱私權政策聲明