博碩士論文 110453008 詳細資訊




以作者查詢圖書館館藏 以作者查詢臺灣博碩士 以作者查詢全國書目 勘誤回報 、線上人數:92 、訪客IP:13.59.46.85
姓名 陳鈺云(YU-YUN CHEN)  查詢紙本館藏   畢業系所 資訊管理學系
論文名稱 基於深度學習之自動化光學檢驗後人工辨識輔助
相關論文
★ 多重標籤文本分類之實證研究 : word embedding 與傳統技術之比較★ 基於圖神經網路之網路協定關聯分析
★ 學習模態間及模態內之共用表示式★ Hierarchical Classification and Regression with Feature Selection
★ 病徵應用於病患自撰日誌之情緒分析★ 基於注意力機制的開放式對話系統
★ 針對特定領域任務—基於常識的BERT模型之應用★ 基於社群媒體使用者之硬體設備差異分析文本情緒強烈程度
★ 機器學習與特徵工程用於虛擬貨幣異常交易監控之成效討論★ 捷運轉轍器應用長短期記憶網路與機器學習實現最佳維保時間提醒
★ 基於半監督式學習的網路流量分類★ ERP日誌分析-以A公司為例
★ 企業資訊安全防護:網路封包蒐集分析與網路行為之探索性研究★ 資料探勘技術在顧客關係管理之應用─以C銀行數位存款為例
★ 人臉圖片生成與增益之可用性與效率探討分析★ 人工合成文本之資料增益於不平衡文字分類問題
檔案 [Endnote RIS 格式]    [Bibtex 格式]    [相關文章]   [文章引用]   [完整記錄]   [館藏目錄]   至系統瀏覽論文 (2026-1-1以後開放)
摘要(中) 當今晶圓製造業中,自動光學檢查(Automatic optical inspection, AOI)已經成
為關鍵技術,然而,由於晶圓的大小和機台支援的影響,儘管自動光學檢查技
術在圖片檢驗領域取得了顯著進展,但仍然無法完全滿足客戶需求,導致需要
大量人工進行檢驗,以確保檢查的準確性。這種人工檢驗的過程是耗時和費用
高昂的,也會導致成本的上升。因此,透過使用人工智慧(Artificial Intelligence,
AI)技術,自動化進行檢查降低成本,是本研究的主要方向。
本文探討了一種基於深度學習的自動光學檢查檢驗後人工辨識輔助檢驗優
化方法,以滿足客戶需求,減少人工檢驗,提高檢驗準確率並實現快速部署和
檢驗。為解決這一問題,我們首先通過已建立的人工檢驗平台對資料進行標記。
在標記資料平衡的情況下,我們採用 合作式注意力網絡(Convolution and
Attention Network, CoAtNet)方法進行 AI 圖片分類。而在標記資料不平衡的情況
下,我們使用對抗自編碼器(Adversarial Autoencoder, AAE)與基於 GAN 的高效異
常檢測(Efficient GAN-Based Anomaly Detection, EGAN)方法生成模型。接著,我
們搭配閥值的調整進行 AI 圖片異常判斷,實現異常檢測。
通過進行一系列實驗,我們證明結合了合作式注意力網絡與對抗自編碼器
生成 Golden Sample 的方法可以顯著提高自動光學檢查檢驗後人工檢驗的準確率,
減少人工檢驗數量,並滿足客戶需求。本研究為圖片檢驗提供了一個有效且實
用的解決方案,具有廣泛的應用前景。
摘要(英) In today′s semiconductor wafer manufacturing industry, Automatic Optical
Inspection (AOI) has become a key technology. However, due to the size of wafers and
the constraints of equipment capabilities, even though AOI technology has made
significant progress in image inspection, it still cannot fully meet customer
requirements. This results in a high dependency on manual inspection to ensure
accuracy. This manual inspection process is both time-consuming and costly, leading
to increased production costs. Hence, automating the inspection process to reduce costs
using Artificial Intelligence (AI) technology is the main direction of this research.
This paper discusses an optimization method for post-AOI manual identification
assistance based on deep learning. The aim is to meet customer needs, reduce manual
inspections, improve inspection accuracy, and achieve rapid deployment and inspection.
To address this challenge, we first labeled data through an established manual
inspection platform. With balanced labeled data, we adopted the Convolution and
Attention Network (CoAtNet) approach for AI image classification. In cases of
unbalanced labeled data, we employed the Adversarial Autoencoder (AAE) and
Efficient GAN-Based Anomaly Detection methods for model generation. We then
paired this with threshold adjustments for AI image anomaly determination, realizing
anomaly detection.
Through a series of experiments, we demonstrated that combining the cooperative
attention network with the adversarial autoencoder to generate Golden Samples can
significantly enhance the accuracy of post-AOI manual inspections, reduce the number
of manual inspections, and meet customer needs. This research provides an effective
and practical solution for image inspection and has a broad application prospect.
關鍵字(中) ★ CoAtNet
★ Adversarial Autoencoder
★ EGAN
★ 深度學習
★ AOI
關鍵字(英) ★ CoAtNet
★ Adversarial Autoencoder
★ EGAN
★ Deep Learning
★ AOI
論文目次 目錄 一、 緒論................................................ 1 1-1 研究動機............................................ 1 1-2 研究目的............................................ 2 1-3 研究困難............................................ 3 1-4 論文架構............................................ 5 二、 文獻回顧............................................ 5 2-1 自動光學檢測於深度學習的應用探討.................... 5 2-2 深度學習之圖片分類技術.............................. 7 2-3 深度學習之異常檢測技術............................. 16 2-4 影像處理 Image Process............................. 20 三、 研究方法........................................... 23 3-1 研究架構........................................... 23 3-2 資料收集與標記..................................... 24 3-3 資料前處理......................................... 26 3-4 實驗設計........................................... 29 3-5 成效評估........................................... 35 四、 實驗結果與評估..................................... 36 4-1 圖片分類實驗結果................................... 36 4-2 異常檢驗實驗結果................................... 38 4-3 實驗評估........................................... 42 五、 總結............................................... 44 5-1 結論............................................... 44 5-2 未來展望........................................... 45
參考文獻................................................... 46
參考文獻 [1] G. E. Hinton, S. Osindero 及 Y.-W. Teh, 作者, 「A Fast Learning
Algorithm for Deep Belief Nets」, Neural Comput., 卷 18, 期 7, 頁 1527–1554,
7 月 2006, doi: 10.1162/neco.2006.18.7.1527.
[2] Y. Lecun, L. Bottou, Y. Bengio 及 P. Haffner, 作者, 「Gradient-based
learning applied to document recognition」, Proc. IEEE, 卷 86, 期 11, 頁 2278–
2324, 1 月 1998, doi: 10.1109/5.726791.
[3] M. Long, Y. Cao, J. Wang 及 M. I. Jordan, 作 者, 「Learning
Transferable Features with Deep Adaptation Networks」. arXiv, 2015 年 5 月 27
日. doi: 10.48550/arXiv.1502.02791.
[4] M. Long, H. Zhu, J. Wang 及 M. I. Jordan, 作者, 「Deep Transfer
Learning with Joint Adaptation Networks」. arXiv, 2017 年 8 月 17 日. doi:
10.48550/arXiv.1605.06636.
[5] Y. H. Tsai, N. Y. Lyu, S. Y. Jung, K. H. Chang, J. Y. Chang 及 C. T. Sun,
作者, 「Deep Learning Based AOI System with Equivalent Convolutional Layers
Transformed from Fully Connected Layers」, 收 入 2019 IEEE/ASME
International Conference on Advanced Intelligent Mechatronics (AIM), 7 月 2019,
頁 103–107. doi: 10.1109/AIM.2019.8868602.
[6] K. Imoto, T. Nakai, T. Ike, K. Haruki 及 Y. Sato, 作者, 「A CNN-Based
Transfer Learning Method for Defect Classification in Semiconductor
Manufacturing」, IEEE Trans. Semicond. Manuf., 卷 32, 期 4, 頁 455–459, 1 月
2019, doi: 10.1109/TSM.2019.2941752.
[7] X. Chen 等, 作者, 「PaLI: A Jointly-Scaled Multilingual LanguageImage Model」. arXiv, 2022 年 9 月 16 日. doi: 10.48550/arXiv.2209.06794.
[8] Z. Dai, H. Liu, Q. V. Le 及 M. Tan, 作者, 「CoAtNet: Marrying
Convolution and Attention for All Data Sizes」. arXiv, 2021 年 9 月 15 日. doi:
10.48550/arXiv.2106.04803.
[9] 「Papers with Code - ImageNet Benchmark (Image Classification)」.
引見於: 2023 年 4 月 1 日. [線上]. 載於: https://paperswithcode.com/sota/imageclassification-on-imagenet
[10] 「Convolutional neural network」, Wikipedia. 2023 年 5 月 8 日. 引見
55
於: 2023 年 5 月 11 日. [線 上]. 載 於:
https://en.wikipedia.org/w/index.php?title=Convolutional_neural_network&oldi
d=1153736176
[11] A. Krizhevsky, I. Sutskever 及 G. E. Hinton, 作 者, 「ImageNet
Classification with Deep Convolutional Neural Networks」, 收入 Advances in
Neural Information Processing Systems, Curran Associates, Inc., 2012. 引見於:
2023 年 3 月 4 日. [線 上]. 載 於:
https://proceedings.neurips.cc/paper/2012/hash/c399862d3b9d6b76c8436e924a6
8c45b-Abstract.html
[12] 「ImageNet」, 維基百科,自由的百科全書. 2023 年 1 月 11 日. 引
見 於: 2023 年 5 月 26 日. [線 上]. 載 於:
https://zh.wikipedia.org/w/index.php?title=ImageNet&oldid=75472839
[13] C. Szegedy 等, 作者, 「Going Deeper with Convolutions」. arXiv,
2014 年 9 月 16 日. doi: 10.48550/arXiv.1409.4842.
[14] K. Simonyan 及 A. Zisserman, 作者, 「Very Deep Convolutional
Networks for Large-Scale Image Recognition」. arXiv, 2015 年 4 月 10 日. doi:
10.48550/arXiv.1409.1556.
[15] K. He, X. Zhang, S. Ren 及 J. Sun, 作者, 「Deep Residual Learning for
Image Recognition」. arXiv, 2015 年 12 月 10 日. doi:
10.48550/arXiv.1512.03385.
[16] A. Vaswani 等, 作者, 「Attention Is All You Need」. arXiv, 2017 年 12
月 5 日. doi: 10.48550/arXiv.1706.03762.
[17]X. Chen等, 作者, 「Symbolic Discovery of Optimization Algorithms」.
arXiv, 2023 年 2 月 17 日. doi: 10.48550/arXiv.2302.06675.
[18] S. d’Ascoli, H. Touvron, M. Leavitt, A. Morcos, G. Biroli 及 L. Sagun,
作 者, 「ConViT: Improving Vision Transformers with Soft Convolutional
Inductive Biases」, J. Stat. Mech. Theory Exp., 卷 2022, 期 11, 頁 114005, 11 月
2022, doi: 10.1088/1742-5468/ac9830.
[19] 「Building Autoencoders in Keras」. 引見於: 2023 年 5 月 28 日. [線
上]. 載於: https://blog.keras.io/building-autoencoders-in-keras.html
[20] H. Bourlard 及 Y. Kamp, 作者, 「Auto-association by multilayer
perceptrons and singular value decomposition」, Biol. Cybern., 卷 59, 期 4–5, 頁
56
291–294, 9 月 1988, doi: 10.1007/BF00332918.
[21] D. P. Kingma 及 M. Welling, 作者, 「Auto-Encoding Variational
Bayes」. arXiv, 2013 年 12 月 20 日. doi: 10.48550/arXiv.1312.6114.
[22] A. Makhzani, J. Shlens, N. Jaitly, I. Goodfellow 及 B. Frey, 作者,
「Adversarial Autoencoders」. arXiv, 2016 年 5 月 24 日. doi:
10.48550/arXiv.1511.05644.
[23] I. J. Goodfellow 等, 作者, 「Generative Adversarial Networks」. arXiv,
2014 年 6 月 10 日. doi: 10.48550/arXiv.1406.2661.
[24] H. Zenati, C. S. Foo, B. Lecouat, G. Manek 及 V. R. Chandrasekhar, 作
者, 「Efficient GAN-Based Anomaly Detection」. arXiv, 2019 年 5 月 1 日. 引
見於: 2023 年 10 月 29 日. [線上]. 載於: http://arxiv.org/abs/1802.06222
[25] W. Shi 等, 作 者, 「Real-Time Single Image and Video SuperResolution Using an Efficient Sub-Pixel Convolutional Neural Network」. arXiv,
2016 年 9 月 23 日. doi: 10.48550/arXiv.1609.05158.
[26] A. C. Bovik, 作者, 「Chapter 3 - Basic Gray Level Image Processing」,
收 入 The Essential Guide to Image Processing, A. Bovik, 編 輯, Boston:
Academic Press, 2009, 頁 43–68. doi: 10.1016/B978-0-12-374457-9.00003-2.
[27] N. Xu, B. Price, S. Cohen 及 T. Huang, 作者, 「Deep Image Matting」.
arXiv, 2017 年 4 月 10 日. doi: 10.48550/arXiv.1703.03872.
[28] L. Zhang, T. Wen 及 J. Shi, 作者, 「Deep Image Blending」, 收入 2020
IEEE Winter Conference on Applications of Computer Vision (WACV), 3 月 2020,
頁 231–240. doi: 10.1109/WACV45572.2020.9093632
指導教授 柯士文 審核日期 2024-1-23
推文 facebook   plurk   twitter   funp   google   live   udn   HD   myshare   reddit   netvibes   friend   youpush   delicious   baidu   
網路書籤 Google bookmarks   del.icio.us   hemidemi   myshare   

若有論文相關問題,請聯絡國立中央大學圖書館推廣服務組 TEL:(03)422-7151轉57407,或E-mail聯絡  - 隱私權政策聲明