僅僅觀看了17個小時的手術(shù)視頻,這個具有雙層“大腦”的AI就能操控手術(shù)機(jī)器人,像經(jīng)驗豐富的外科醫(yī)生那樣,精準(zhǔn)執(zhí)行手術(shù)操作,而且在遇到突發(fā)狀況時,可以實時調(diào)整手術(shù)計劃。2025年7月,SRT-H人工智能手術(shù)機(jī)器人在無需人工干預(yù)的情況下,100%成功完成豬膽囊切除手術(shù),標(biāo)志著手術(shù)機(jī)器人從“輔助工具”向“自主執(zhí)行體”邁出關(guān)鍵一步。

撰文 | 李娟(生命科學(xué)專業(yè)博士)

2025年7月,美國約翰·霍普金斯大學(xué)智能醫(yī)療機(jī)器人系統(tǒng)與設(shè)備實驗室主任Axel Krieger副教授團(tuán)隊聯(lián)合斯坦福大學(xué)主導(dǎo)的一項研究,取得了突破性進(jìn)展:一款名為SRT-H(Surgical Robot Transformer–Hierarchy,手術(shù)機(jī)器人變形體-層級架構(gòu))的人工智能手術(shù)機(jī)器人,在幾乎無需人工干預(yù)的情況下,成功完成了豬膽囊切除手術(shù)。相關(guān)研究已發(fā)表在《科學(xué)·機(jī)器人》雜志上。

“SRT-H的100%成功率,標(biāo)志著手術(shù)機(jī)器人從輔助工具向‘自主執(zhí)行體’的關(guān)鍵躍遷。這是醫(yī)學(xué)人工智能發(fā)展的重要里程碑。”神州醫(yī)療高級副總裁兼首席醫(yī)學(xué)官、廣東醫(yī)科大學(xué)多模態(tài)數(shù)據(jù)融合應(yīng)用實驗室主任弓孟春教授對筆者介紹說。

圖 1:以達(dá)芬奇手術(shù)機(jī)器人為執(zhí)行系統(tǒng)的SRT-H自主完成切除離體豬膽囊手術(shù)。圖從左到右依次為:達(dá)芬奇手術(shù)套件系統(tǒng)Si、與肝臟相連的豬膽囊、手術(shù)配置(立體內(nèi)窺鏡、腕部攝像頭、施夾鉗、施夾器、剪刀、卡爾迪鉗)。丨圖源:參考文獻(xiàn)[1]

SRT-H智能系統(tǒng)的訓(xùn)練是通過觀看學(xué)習(xí)了17小時手術(shù)視頻完成,視頻涵蓋16000個人類外科醫(yī)生的手術(shù)動作,并搭配任務(wù)描述字幕強(qiáng)化學(xué)習(xí),首次將自然語言作為機(jī)器人手術(shù)規(guī)劃與糾錯接口。

在實驗中,SRT-H成功完成了17步膽囊切除術(shù),面對不同樣本的解剖差異、其他組織的干擾、模擬出血以及不完美的圖像等狀況,該系統(tǒng)能夠自主糾錯——在8次手術(shù)測試中,它平均每臺手術(shù)自我修正6次。此外,該系統(tǒng)能通過語音交互接受醫(yī)生的實時指導(dǎo)并持續(xù)學(xué)習(xí),模擬“導(dǎo)師指導(dǎo)住院醫(yī)師”的互動模式。

SRT-H核心技術(shù)優(yōu)勢基于兩層人工智能系統(tǒng):第一層AI通過內(nèi)窺鏡視頻實時分析手術(shù)場景,發(fā)出手術(shù)操作步驟的指令,將視覺信息轉(zhuǎn)化為自然語言指令(如“分離膽囊動脈”);第二層AI則將指令轉(zhuǎn)化為三維器械動作,精準(zhǔn)執(zhí)行抓取、夾閉、切割等操作。

圖2:SRT-H的雙層“大腦”:語言規(guī)劃器通過“校正標(biāo)記”在任務(wù)指令和校正指令之間切換,而底層控制器則將選定的指令轉(zhuǎn)化為精確的器械路徑。丨圖源:參考文獻(xiàn)[1]

“SRT-H的雙層AI形成協(xié)同架構(gòu),有效破解了長時序、多步驟手術(shù)流程中的動態(tài)糾錯難題,實現(xiàn)了決策智能與執(zhí)行精度的統(tǒng)一?!惫洗赫f。

手術(shù)機(jī)器人不再只是輔助

人工智能的概念最早出現(xiàn)在1956年,由美國達(dá)特茅斯學(xué)院的計算機(jī)與認(rèn)知科學(xué)家約翰?麥卡錫教授提出。其核心原理基于計算機(jī)可精準(zhǔn)模擬人類智能行為的技術(shù),包括學(xué)習(xí)、推理、感知和語言理解等能力。隨著計算能力的提升和大數(shù)據(jù)的發(fā)展,AI在多個領(lǐng)域迅速推廣,其中,醫(yī)學(xué)成為最具潛力的應(yīng)用場景之一。

醫(yī)學(xué)AI涵蓋醫(yī)學(xué)圖像識別、疾病預(yù)測與診斷、藥物研發(fā)、手術(shù)輔助、患者管理等多個方面。通過深度學(xué)習(xí)、自然語言處理等方法,AI能夠輔助醫(yī)生更快速準(zhǔn)確地分析醫(yī)學(xué)數(shù)據(jù),提高臨床效率,降低誤診率,并推動個性化醫(yī)療的發(fā)展。

在醫(yī)學(xué)AI的發(fā)展進(jìn)程中,手術(shù)機(jī)器人技術(shù)是高度集成AI與臨床實踐的代表性應(yīng)用。

傳統(tǒng)手術(shù)機(jī)器人自20世紀(jì)90年代問世以來,已經(jīng)在提升手術(shù)精度、降低創(chuàng)傷風(fēng)險、縮短術(shù)后恢復(fù)時間等方面展現(xiàn)出巨大優(yōu)勢。最具代表性的系統(tǒng)是美國直覺外科公司(Intuitive Surgical)推出的“達(dá)芬奇”手術(shù)機(jī)器人,該系統(tǒng)通過醫(yī)生操控機(jī)械臂完成精細(xì)手術(shù)操作,在1997年首獲美國食品藥品監(jiān)督管理局(FDA)批準(zhǔn)用于內(nèi)窺可視化和組織牽開,2000年擴(kuò)展至普通外科手術(shù),獲得廣泛臨床認(rèn)可。

然而,傳統(tǒng)手術(shù)機(jī)器人依然主要依賴醫(yī)生實時控制,系統(tǒng)本身并不具備自主“思考”能力。AI的引入推動著傳統(tǒng)手術(shù)機(jī)器人技術(shù)從單一設(shè)備走向多樣化智能平臺,標(biāo)志著手術(shù)機(jī)器人實現(xiàn)了重大范式轉(zhuǎn)變。

目前的手術(shù)機(jī)器人主要分為兩類:第一類是觸覺型(即外科醫(yī)生引導(dǎo))系統(tǒng),需由操作者進(jìn)行物理操控,以提升手術(shù)成功率;第二類是主動型或自主型智能系統(tǒng),能遵循完整的術(shù)前計劃,在無需外科醫(yī)生干預(yù)的情況下完成手術(shù)。

圖3:手術(shù)機(jī)器人系統(tǒng)(SRS)發(fā)展里程碑丨圖源/表格:作者整理自參考文獻(xiàn)[3]

從STAR到SRT-H的技術(shù)進(jìn)化之路

SRT-H的誕生就是建立在先前的實驗基礎(chǔ)上。其前身是Krieger團(tuán)隊研發(fā)的初代智能手術(shù)機(jī)器人STAR(Smart Tissue Autonomous Robot),即智能組織自主機(jī)器人。STAR系統(tǒng)擅長軟組織縫合術(shù)。該手術(shù)是外科手術(shù)中最復(fù)雜的任務(wù)之一,高度依賴外科醫(yī)生的經(jīng)驗與穩(wěn)定,難以標(biāo)準(zhǔn)化。

目前,STAR系統(tǒng)從早期的輔助縫合,逐步進(jìn)化為具備自主識別、路徑規(guī)劃與縫合執(zhí)行能力的一體化系統(tǒng):

2014年,Krieger團(tuán)隊首次提出STAR可提升腹腔鏡縫合質(zhì)量;2016年,該團(tuán)隊研發(fā)出結(jié)合三維成像與近紅外熒光(NIRF)視覺系統(tǒng)的自動縫合算法,首次實現(xiàn)活體自主軟組織手術(shù);2021年,STAR系統(tǒng)引入第二機(jī)械臂處理松散縫線,同時通過熒光縫線實現(xiàn)邊界自動識別。

2022年,STAR發(fā)展為一個融合近紅外熒光成像(NIRF)、3D視覺識別、組織變形追蹤、實時控制與深度學(xué)習(xí)算法的系統(tǒng),首次在活體豬身上進(jìn)行自主腹腔鏡手術(shù)——它能夠識別縫合組織的邊界,追蹤其形變,并自動規(guī)劃縫線路徑,完成閉環(huán)操作。在實驗中,該系統(tǒng)的縫合間距和咬合深度的穩(wěn)定性明顯優(yōu)于人類專家和傳統(tǒng)機(jī)器人,顯示出其在術(shù)中一致性和可重復(fù)性方面的領(lǐng)先優(yōu)勢。

圖 4:行軟組織縫合術(shù)的AI手術(shù)機(jī)器人STAR系統(tǒng)。丨圖源:參考文獻(xiàn)[2]

然而,STAR的自主性局限于嚴(yán)格的預(yù)設(shè)框架,就像“按固定地圖行駛”—— 人類醫(yī)生需提前確定手術(shù)方案,機(jī)器人僅能在預(yù)定義范圍內(nèi)微調(diào),一旦遇到未預(yù)設(shè)的組織形變或突發(fā)情況,就必須暫停,并等待人工干預(yù),對個體解剖差異的適應(yīng)能力較弱。

對比來看,SRT-H可以視為STAR項目的延續(xù)或升級版本。SRT-H不再依賴固定腳本,而是采用語言驅(qū)動的分層自主架構(gòu),讓機(jī)器人像經(jīng)驗豐富的外科醫(yī)生一樣,能夠動態(tài)調(diào)整手術(shù)策略。

研究顯示,SRT-H的動作平穩(wěn),且能在復(fù)雜場景中保持穩(wěn)定——即使研究人員改變其起始位置,或用類似血液的染料模糊視野,機(jī)器人仍能完美完成操作。

AI賦能手術(shù)全流程,訓(xùn)練數(shù)據(jù)是關(guān)鍵

如上所述,STAR和SRT-H在術(shù)中表現(xiàn)優(yōu)異,事實上,搭載AI的手術(shù)機(jī)器人系統(tǒng)在術(shù)前與術(shù)后也在發(fā)揮重要作用。

術(shù)前階段,AI可利用計算機(jī)視覺與機(jī)器學(xué)習(xí)技術(shù)對CT、MRI(核磁共振成像)等多模態(tài)醫(yī)學(xué)影像進(jìn)行深度解析,生成高精度的三維解剖模型,幫助醫(yī)生識別關(guān)鍵結(jié)構(gòu)并優(yōu)化手術(shù)方案。例如,Proprio Vision的Paradigm脊柱手術(shù)導(dǎo)航平臺可融合術(shù)前影像,實現(xiàn)實時解剖映射。

術(shù)后階段,AI可對手術(shù)視頻和相關(guān)數(shù)據(jù)進(jìn)行系統(tǒng)分析,量化評估手術(shù)質(zhì)量,識別關(guān)鍵步驟與改進(jìn)空間。這些分析成果不僅有助于療效回顧,也為醫(yī)生培訓(xùn)提供了標(biāo)準(zhǔn)化、結(jié)構(gòu)化的高質(zhì)量教學(xué)素材。

整體而言,AI賦能的手術(shù)機(jī)器人具備三大核心能力:一是優(yōu)化手術(shù)路徑與操作精度,減少創(chuàng)傷與并發(fā)風(fēng)險;二是彌補(bǔ)術(shù)者經(jīng)驗差異,提升操作的一致性與標(biāo)準(zhǔn)化;三是增強(qiáng)系統(tǒng)環(huán)境感知與自主決策能力,應(yīng)對術(shù)中復(fù)雜情境。

值得強(qiáng)調(diào)的是,AI與手術(shù)機(jī)器人正形成一種良性協(xié)同機(jī)制:手術(shù)機(jī)器人在運行中不斷產(chǎn)生結(jié)構(gòu)化、多模態(tài)臨床數(shù)據(jù),這些數(shù)據(jù)可反哺AI模型的訓(xùn)練和迭代;而優(yōu)化后的AI算法又進(jìn)一步提升機(jī)器人的操作效率與智能水平,加速形成標(biāo)準(zhǔn)化、可復(fù)制的智能外科流程。

圖5:人工智能在手術(shù)中的應(yīng)用(術(shù)前、術(shù)中和術(shù)后三個階段)及其訓(xùn)練數(shù)據(jù)來源:在術(shù)前階段,人工智能可用于人群篩查策略制定、疾病的早期精準(zhǔn)診斷以及術(shù)前風(fēng)險預(yù)測,所依賴的數(shù)據(jù)來源包括臨床登記數(shù)據(jù)、電子健康記錄、影像數(shù)據(jù)、生物標(biāo)志物和組學(xué)數(shù)據(jù)以及手術(shù)數(shù)據(jù)。術(shù)中階段,人工智能能夠為手術(shù)操作提供指導(dǎo),還可在手術(shù)機(jī)器人的輔助下發(fā)揮作用,這主要依靠傳感器數(shù)據(jù)和手術(shù)數(shù)據(jù)來實現(xiàn)。術(shù)后階段,人工智能有助于有效規(guī)劃患者出院事宜、預(yù)測術(shù)后并發(fā)癥,還能為手術(shù)相關(guān)的教育和培訓(xùn)提供支持,其數(shù)據(jù)來源涵蓋手術(shù)數(shù)據(jù)、生物標(biāo)志物和組學(xué)數(shù)據(jù)以及影像數(shù)據(jù)等。丨圖源:參考文獻(xiàn)[4]

目前,AI手術(shù)機(jī)器人技術(shù)快速發(fā)展,業(yè)內(nèi)對這一技術(shù)的前景普遍樂觀,但其臨床應(yīng)用仍面臨多重挑戰(zhàn):

首先,手術(shù)效率不及人類醫(yī)生,當(dāng)前機(jī)器人完成一臺手術(shù)所需時間仍偏長。其次,自主性不足,器械更換等關(guān)鍵環(huán)節(jié)仍依賴人工協(xié)助,尚未實現(xiàn)全流程自動化。第三,臨床適應(yīng)性有限,大多數(shù)實驗仍基于離體模型,尚未充分應(yīng)對呼吸、出血等活體動態(tài)干擾。最后,監(jiān)管體系滯后,針對AI主導(dǎo)手術(shù)的倫理與法規(guī)尚不完善,影響其在臨床的規(guī)范落地。

事實上,AI系統(tǒng)真正發(fā)揮作用的關(guān)鍵,在于高質(zhì)量訓(xùn)練數(shù)據(jù)的獲取與管理。特別是在手術(shù)視頻分析這一領(lǐng)域,算法性能高度依賴于標(biāo)注數(shù)據(jù)的準(zhǔn)確性與多樣性。沒有結(jié)構(gòu)清晰、語義明確的訓(xùn)練集,再先進(jìn)的算法也難以實現(xiàn)穩(wěn)定可靠的應(yīng)用效果。因此,精確標(biāo)注的多模態(tài)手術(shù)數(shù)據(jù)集,已成為AI手術(shù)機(jī)器人系統(tǒng)開發(fā)的核心基石與關(guān)鍵瓶頸。

AI時代,醫(yī)生的角色重塑與倫理挑戰(zhàn)

“全面有效地整合多模態(tài)醫(yī)學(xué)數(shù)據(jù)是醫(yī)學(xué)AI發(fā)展的關(guān)鍵,也是我們多年來一直在推進(jìn)的工作?!惫洗赫f,“目前,我們聯(lián)合多家大型三甲教學(xué)醫(yī)院,建設(shè)院級多模態(tài)醫(yī)學(xué)數(shù)據(jù)平臺。在高質(zhì)量多模態(tài)數(shù)據(jù)集的基礎(chǔ)上,我們研發(fā)出了一系列具備全學(xué)科、多場景、廣覆蓋、醫(yī)防融合特征的生成式醫(yī)學(xué)大模型,并已啟動面向醫(yī)務(wù)人員、健康人群和患者的多項具體實踐?!?/p>

全智能診療時代或許就在不遠(yuǎn)的將來。那么,未來的手術(shù)室會變成機(jī)器人主導(dǎo)的“無人手術(shù)室”嗎?未來的醫(yī)學(xué)實踐是否還需要醫(yī)生?需要什么樣的醫(yī)生?醫(yī)學(xué)倫理會面臨怎樣的挑戰(zhàn)?

作為2025年6月剛成立的全國首家AI醫(yī)學(xué)院——廣東醫(yī)科大學(xué)AI醫(yī)學(xué)院(GDMU-AIMS)的發(fā)起人、推動者之一,弓孟春談及當(dāng)今醫(yī)學(xué)教育面臨的機(jī)遇和挑戰(zhàn),他告訴筆者:“醫(yī)學(xué)AI發(fā)展的終極目標(biāo)不是機(jī)器取代醫(yī)生,而是讓優(yōu)質(zhì)醫(yī)療更具可及性。AI的引入提升了醫(yī)療效率,未來醫(yī)學(xué)實踐對醫(yī)生的要求正發(fā)生根本轉(zhuǎn)變,我們的醫(yī)學(xué)教育與人才培養(yǎng)也要與時俱進(jìn)。”

弓孟春指出,醫(yī)學(xué)生不再只需掌握操作技能,而必須具備“人機(jī)共融的決策能力”——既要能夠熟練運用AI工具拓展個人知識邊界,又要具備識別算法偏誤、數(shù)據(jù)偏倚與系統(tǒng)局限的能力。在人機(jī)協(xié)作過程中,醫(yī)生依然是醫(yī)療決策的主導(dǎo)者與責(zé)任承擔(dān)者,這種“技術(shù)理解+倫理判斷”的復(fù)合能力,必須從醫(yī)學(xué)院階段開始系統(tǒng)培養(yǎng),成為面向AI時代的基礎(chǔ)素養(yǎng)。

據(jù)弓孟春介紹,2025年7月,由我國50余位臨床醫(yī)學(xué)、醫(yī)學(xué)教育、人工智能、醫(yī)學(xué)倫理法規(guī)等方面的專家共同完成的《醫(yī)學(xué)生AI素養(yǎng)的能力清單及測評框架專家共識(2025)》已經(jīng)發(fā)布。

圖6:手術(shù)機(jī)器人的應(yīng)用領(lǐng)域。神經(jīng)外科機(jī)器人(Neurosurgery robots)主要用于腦部手術(shù);眼科機(jī)器人(Ophthalmic robots)應(yīng)用于眼部手術(shù);內(nèi)鏡機(jī)器人(Endoscopic robots)可用于如肝臟等部位的內(nèi)鏡手術(shù);NOTES 機(jī)器人(NOTES robots)適用于經(jīng)自然腔道內(nèi)鏡手術(shù);骨科機(jī)器人(Orthopaedic robots)用于骨骼相關(guān)手術(shù);泛血管機(jī)器人(Pan-vascular robots)用于血管相關(guān)手術(shù);穿刺機(jī)器人(Puncture robots)可進(jìn)行穿刺操作;頜面機(jī)器人(Maxillofacial robots)用于頜面部位手術(shù)。丨圖源:參考文獻(xiàn)[3]

另外,隨著AI技術(shù)深入嵌入診療全流程,醫(yī)學(xué)AI的倫理治理已成為亟待應(yīng)對的課題。比如:責(zé)任歸屬如何劃定?算法偏見如何監(jiān)管?患者隱私如何保障?

當(dāng)前,我國醫(yī)療系統(tǒng)已廣泛部署包括DeepSeek在內(nèi)的基座大模型。弓孟春指出,盡管我國《生成式人工智能服務(wù)管理暫行辦法》已為行業(yè)初步設(shè)定邊界,但在高風(fēng)險場景(如自主手術(shù)、急危重癥干預(yù))中,仍需建立更嚴(yán)格的專項倫理審查機(jī)制。隨著越來越多醫(yī)學(xué)AI產(chǎn)品進(jìn)入臨床研究階段,亟需一套成熟的、適用于中國特色醫(yī)療實踐的審查監(jiān)管規(guī)范。

“未來的醫(yī)學(xué)AI發(fā)展亟需構(gòu)建‘技術(shù)研發(fā)—素養(yǎng)教育—倫理治理’三位一體的推進(jìn)機(jī)制:在技術(shù)端,強(qiáng)化多模態(tài)模型與臨床場景的深度適配;在教育端,加強(qiáng)醫(yī)務(wù)人員對AI的批判性認(rèn)知與應(yīng)用能力;在監(jiān)管端,推動適應(yīng)我國實際的倫理制度落地。唯有如此,AI方能真正成為值得信賴的健康守護(hù)力量?!惫洗簭?qiáng)調(diào)。

參考文獻(xiàn)

[1] Kim J W B, et al. SRT-H: A hierarchical framework for autonomous surgery via language-conditioned imitation learning[J]. Science Robotics, 2025, 10: eadt5254. DOI: 10.1126/scirobotics.adt5254.

[2] Saeidi H, Opfermann J D, Kam M, et al. Autonomous robotic laparoscopic surgery for intestinal anastomosis[J]. Science Robotics, 2022, 7(62): eabj2908. DOI: 10.1126/scirobotics.abj2908.

[3] Liu Y, Wu X, Sang Y, et al. Evolution of Surgical Robot Systems Enhanced by Artificial Intelligence: A Review[J]. Advanced Intelligent Systems, 2024, 6(6): 2300268. https://doi.org/10.1002/aisy.202300268.

[4] Guni A, Varma P, Zhang J, et al. Artificial Intelligence in Surgery: The Future is Now[J]. European Surgical Research, 2024. Published online January 22, 2024. DOI: 10.1159/000536393.

注:本文封面圖片來自版權(quán)圖庫,轉(zhuǎn)載使用可能引發(fā)版權(quán)糾紛。

特 別 提 示

1. 進(jìn)入『返樸』微信公眾號底部菜單“精品專欄“,可查閱不同主題系列科普文章。

2. 『返樸』提供按月檢索文章功能。關(guān)注公眾號,回復(fù)四位數(shù)組成的年份+月份,如“1903”,可獲取2019年3月的文章索引,以此類推。

版權(quán)說明:歡迎個人轉(zhuǎn)發(fā),任何形式的媒體或機(jī)構(gòu)未經(jīng)授權(quán),不得轉(zhuǎn)載和摘編。轉(zhuǎn)載授權(quán)請在「返樸」微信公眾號內(nèi)聯(lián)系后臺。

來源: 返樸

內(nèi)容資源由項目單位提供