當手機屏幕在生產線上快速滑過,傳統人工質檢需用放大鏡逐個檢查是否有微米級劃痕,漏檢率高達15%。如今,3D視覺技術正讓這一場景成為歷史,但如何讓AI精準“看懂”復雜表面的微小缺陷?香港科技大學(廣州)團隊在《Frontiers in Engineering Management》發表綜述,系統梳理了基于3D點云數據的異常檢測技術,指出當前方法在復雜曲面檢測中準確率達95%,但面臨數據稀缺、計算成本高等挑戰。研究首次提出三大突破方向:大語言模型輔助、多模態數據融合、3D基礎模型構建,為制造業全自動質檢提供“技術路線圖”。

從“盲人摸象”到“立體透視”:3D點云如何改變質檢邏輯?

傳統2D圖像質檢如同“盲人摸象”,只能捕捉平面信息,對凹陷、裂紋等立體缺陷識別率不足70%。而3D點云技術通過激光掃描生成數百萬個三維坐標點,相當于“給產品做全身CT”,連0.02毫米的微小變形都能精準捕捉。例如,在航空發動機葉片檢測中,它能將人工漏檢率從15%降至1%以下,“每個點的坐標誤差不超過5微米,相當于頭發絲直徑的1/14”。

但這項技術仍面臨“三大攔路虎”:非結構化點云數據難以處理(如同散亂的樂高積木無法直接拼接)、異常樣本稀缺(制造業中不足1%,如同大海撈針)、缺陷類型多樣且分布稀疏(如針尖大小的氣孔)。

AI“三派武功”各顯神通,但都有“軟肋”

論文將現有技術分為三大類,各有擅長領域也各有局限。監督學習派如同“科班出身”,需大量標注樣本訓練,PointNet系列模型在金屬3D打印檢測中準確率達91.3%,但標注一個點云樣本成本是2D圖像的10倍,“制造業中異常樣本太少,AI學不到足夠‘壞例子’”。

無監督學習派是“自學成才”,只需正常樣本即可訓練。記憶庫方法(如BTF)通過存儲正常表面特征,在MVTec3D數據集上AUPRO(區域重疊指標)達0.924,但對渦輪葉片等復雜曲面誤檢率仍有8%,“就像認錯雙胞胎,長得太像就分不清”。

無訓練派更顛覆,無需樣本直接檢測。基于CAD模型比對的方法,通過掃描點云與設計圖紙“對齊”,在3D打印零件檢測中DICE系數(重疊度)達0.993,但依賴精確的CAD模型,“沒圖紙就抓瞎”。

未來怎么突破?三大方向讓AI“更聰明”

研究團隊指出,工業質檢的下一個突破口在三方面。多模態融合如同“給AI配多感官”,將3D點云與2D圖像、紅外熱成像結合,CPMF方法通過這種方式在MVTec3D數據集上I-AUROC(分類指標)達0.952,誤檢率降低40%,“就像同時用眼睛看、用手摸,缺陷無所遁形”。

大語言模型輔助是新思路。利用LLM解析制造標準文檔(如ISO公差規范),指導AI識別“合格產品長什么樣”,減少對標注數據的依賴。但目前3D基礎模型仍是空白,“就像讓畫家只學過素描,突然要畫油畫”。

實時檢測技術是工廠剛需。現有方法處理百萬級點云需GPU運行10分鐘,而生產線要求每秒30幀檢測。團隊提出“動態降采樣”技術,在保證精度的前提下提速5倍,“相當于從高清電影壓縮成短視頻,關鍵細節不丟失”。

離“黑燈工廠”還有多遠?

這項研究為制造業質檢自動化提供了清晰路徑。目前,基于Transformer的TransPCNet模型已在 sewer defect檢測中實現每秒30幀實時檢測,比人工快5倍;多模態融合技術則讓芯片封裝缺陷檢出率提升至99.9%。

“未來三年,3D視覺質檢有望在汽車、航空領域普及。”團隊預測,但全面替代人工還需突破3D基礎模型和低成本傳感器瓶頸。

來源: 工程管理前沿