- +1
AI生成的深度偽造X光片能以假亂真,醫(yī)學(xué)影像安全面臨新挑戰(zhàn)
美國(guó)西奈山伊坎醫(yī)學(xué)院一項(xiàng)最新研究發(fā)現(xiàn),無(wú)論是放射科醫(yī)生還是多模態(tài)大語(yǔ)言模型(LLM),都難以輕易區(qū)分由人工智能(AI)生成的深度偽造X光影像與真實(shí)醫(yī)學(xué)影像。研究人員表示,這一發(fā)現(xiàn)凸顯了AI生成醫(yī)學(xué)影像可能帶來(lái)的醫(yī)療安全與網(wǎng)絡(luò)安全風(fēng)險(xiǎn)。相關(guān)論文發(fā)表于最新一期《放射學(xué)》雜志。
“深度偽造”是指看似真實(shí)但實(shí)際上由AI生成或篡改的視頻、照片、圖像或音頻。AI生成的X光片真實(shí)度極高,能以假亂真,可能被用于醫(yī)療欺詐,例如偽造骨折影像用于訴訟取證。如果黑客入侵醫(yī)院系統(tǒng)并植入合成醫(yī)學(xué)影像,還可能篡改診斷結(jié)果,甚至破壞電子病歷系統(tǒng)的可信度。
在這項(xiàng)回顧性研究中,來(lái)自美國(guó)、法國(guó)、德國(guó)、土耳其、英國(guó)和阿聯(lián)酋6個(gè)國(guó)家12家醫(yī)療中心的17名放射科醫(yī)生參與測(cè)試。研究共分析264張X光影像,分為兩組:第一組數(shù)據(jù)包含多個(gè)解剖部位的真實(shí)影像以及由ChatGPT生成的影像;第二組數(shù)據(jù)為胸部X光片,其中一半為真實(shí)影像,另一半由斯坦福醫(yī)學(xué)院研究人員開(kāi)發(fā)的開(kāi)源生成式AI擴(kuò)散模型RoentGen生成。
結(jié)果顯示,在未被告知研究目的的情況下,僅有41%的醫(yī)生主動(dòng)識(shí)別出AI生成圖像。在明確告知后,醫(yī)生區(qū)分真實(shí)與偽造影像的平均準(zhǔn)確率為75%。
與此同時(shí),GPT-4o(OpenAI)、GPT-5(OpenAI)、Gemini 2.5 Pro(谷歌)以及Llama 4 Maverick(Meta)四種多模態(tài)大模型也進(jìn)行了識(shí)別測(cè)試,其準(zhǔn)確率在57%—85%之間。即便是參與生成這些深度偽造影像的GPT-4o模型本身,也無(wú)法識(shí)別全部偽造影像。
研究人員總結(jié)稱,AI生成的醫(yī)學(xué)影像往往存在一些“過(guò)于完美”的特征,例如骨骼表面過(guò)于光滑、脊柱過(guò)直、肺部過(guò)度對(duì)稱、血管分布過(guò)于均勻,以及骨折斷面異常整齊等。
為降低風(fēng)險(xiǎn),研究團(tuán)隊(duì)建議,應(yīng)在醫(yī)學(xué)影像中嵌入不可見(jiàn)數(shù)字水印、增加加密簽名等技術(shù)手段,以防止影像被篡改,同時(shí)加強(qiáng)醫(yī)學(xué)影像AI鑒別能力培訓(xùn)。
【總編輯圈點(diǎn)】
其實(shí),最先出現(xiàn)類似問(wèn)題的是文字領(lǐng)域。AI從人類語(yǔ)料庫(kù)中學(xué)習(xí)如何寫作,人類又試圖從AI生成內(nèi)容中揪出“機(jī)味”。如今,人類原創(chuàng)的內(nèi)容和AI撰寫的內(nèi)容混在一起,已難以分辨。如今,同樣的難題又進(jìn)入圖像領(lǐng)域。資深醫(yī)生和大模型自己,都難以準(zhǔn)確判斷哪些醫(yī)學(xué)影像被AI動(dòng)了手腳。這項(xiàng)研究給醫(yī)療安全敲響了警鐘,它甚至可能動(dòng)搖整個(gè)醫(yī)療系統(tǒng)的可信度。我們看到,AI的深度滲透,正給所有行業(yè)帶來(lái)前所未有的挑戰(zhàn)。
(原標(biāo)題為《醫(yī)學(xué)影像安全面臨新挑戰(zhàn):AI生成的深度偽造X光片能以假亂真》)





- 報(bào)料熱線: 021-962866
- 報(bào)料郵箱: news@thepaper.cn
滬公網(wǎng)安備31010602000299號(hào)
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營(yíng)許可證:滬B2-2017116
? 2014-2026 上海東方報(bào)業(yè)有限公司




