在芯片制造車間,一顆0.1毫米的劃痕可能導致整個批次報廢;在航空發動機檢修中,人工肉眼檢查葉片裂紋的漏檢率高達15%。如今,3D視覺技術正成為制造業的“質檢神器”,但如何讓AI精準“看懂”復雜表面的微小缺陷?香港科技大學(廣州)團隊在《Frontiers in Engineering Management》發表綜述,系統梳理了基于3D點云數據的異常檢測技術,指出深度學習方法(如PointNet、Transformer)準確率可達95%,但面臨數據稀缺和計算成本高的挑戰。研究呼吁結合大語言模型和多模態數據,推動工業質檢向“全自動、高精度”升級。
從“拍照片”到“CT掃描”:3D點云為何成質檢新寵?
傳統制造業質檢依賴2D圖像,如同“拍照片”判斷表面缺陷,易受光照、角度影響,對凹陷、裂紋等立體異常識別率不足70%。而3D點云技術通過激光掃描生成數百萬個三維坐標點,相當于“給產品做全身CT”,能捕捉深度、曲率等幾何細節,即使在暗環境或復雜紋理表面也能精準定位缺陷。
“3D點云就像給產品建了個數字孿生模型,每個點的坐標誤差不超過5微米。”研究團隊解釋,這種技術已用于航空發動機葉片、高鐵軌道等精密部件檢測,將傳統人工漏檢率從15%降至1%以下。但它也面臨“三大攔路虎”:非結構化點云數據難以處理、異常樣本稀缺(制造業中不足1%)、缺陷類型多樣且分布稀疏(如針尖大小的氣孔)。
AI“三招”攻克檢測難題:監督學習、無監督學習與“零訓練”模式
論文將現有技術分為三大類,各有“看家本領”。監督學習如同“師傅帶徒弟”,AI通過標注好的正常/異常樣本學習。例如,PointNet系列模型通過多層感知機處理點云數據,在金屬增材制造檢測中準確率達91.3%。但它依賴大量標注數據,而制造業中異常樣本往往“一圖難求”,如同“大海撈針”。
無監督學習則讓AI“自學成才”,只需正常樣本即可訓練。記憶庫方法(如BTF)通過存儲正常表面特征,遇到差異超過閾值的區域就報警,在MVTec3D數據集上AUPRO(區域重疊曲線下面積)達0.924,相當于“記住所有正常面孔,陌生面孔一出現就報警”。不過,這類方法對渦輪葉片等復雜曲面的誤檢率仍有8%。
無訓練方法更顛覆,無需任何樣本就能檢測。例如,基于CAD模型比對的方法,通過將掃描點云與設計圖紙“對齊”,偏差超過0.02毫米即判定為缺陷,已用于3D打印零件檢測,DICE系數(檢測重疊度)達0.993,相當于“用設計圖當模板,哪里不對一目了然”。
現實挑戰與未來破局:數據少、計算慢,多模態融合是關鍵
盡管技術先進,3D視覺質檢仍面臨“兩重山”。一是數據稀缺,標注一個包含10萬個點的點云樣本需3小時,成本是2D圖像的10倍;二是計算昂貴,處理百萬級點云需GPU運行10分鐘,難以滿足生產線實時檢測需求。
研究指出,多模態融合是突破口:將3D點云與2D圖像、紅外熱成像結合,如同“給AI配了眼睛和溫度計”,可提升復雜缺陷(如內部空洞)的檢出率。例如,CPMF方法融合2D圖像特征與3D幾何信息,在MVTec3D數據集上I-AUROC(分類指標)達0.952,誤檢率降低40%。
未來,大語言模型(LLM)或成“新幫手”。通過解析制造標準文檔(如ISO公差規范),LLM可指導AI識別“什么是合格產品”,減少對標注數據的依賴。但目前3D基礎模型仍空白,如何將2D預訓練模型(如ResNet)遷移到3D領域,仍是待解難題。
來源: 工程管理前沿