中文
English

新研究:AI生成的X光片可欺骗放射科医生,被识别准确率低至41%

好的牙编辑部
2026-03-27
图源:The Rise of Deepfake Medical Imaging:Radiologists’ Diagnostic Accuracy in Detecting ChatGPT-generated Radiographs
图源:The Rise of Deepfake Medical Imaging: Radiologists’ Diagnostic Accuracy in Detecting ChatGPT-generated Radiographs

好的牙·讯|2026年3月24日,发表于北美放射学会(RSNA)会刊《Radiology》期刊的一项研究显示,放射科医生及多模态大语言模型(LLMs)均难以分辨真实的X光片与AI生成的“深度伪造”图像。在未获知包含伪造图像的情况下,放射科医生识别AI生成的X光片准确率仅为41%。

该项研究由纽约西奈山伊坎医学院研究团队完成,共纳入了来自6个国家的12家机构的17名放射科医生,涵盖了从初学者到执业40年的资深专家。研究共测试了264张X光片,其中包括由ChatGPT生成的身体各部位影像,以及使用斯坦福大学开发的开源生成式AI扩散模型RoentGen生成的胸部影像。

实验数据显示,当医生被告知存在合成影像后,其平均识别准确率提升至75%。而在AI模型表现方面,GPT-4o、GPT-5、Gemini 2.5 Pro及Llama 4 Maverick的准确率在57%至85%之间。值得注意的是,尽管ChatGPT-4o表现优于其他模型,但作为图像生成工具的它,仍无法完全识别出所有由其生成的伪造影像。

研究人员指出,这些高度逼真的伪造影像不仅可能在虚假诉讼中作为证据,还存在严重的信息安全风险。若黑客侵入医院网络并注入合成影像,可能导致误诊并破坏数字病历的可靠性。目前,伪造影像在视觉上呈现出“过于完美”的特征,如骨骼过滑、脊柱异常笔直、血管分布过度均匀等,但在未来的AI演进中,这些特征可能进一步消失。

此前,好的牙曾报道韩国延世大学牙科学院实习课程中出现篡改X光片的学术造假事件:部分学生使用Photoshop修补或替换影像,以掩盖操作失误。彼时造假依赖人工,尚有痕迹可查。而本次发表于《Radiology》的研究进一步提示,在生成式AI介入后,伪造影像的逼真度可能持续上升,欺诈与误导的潜在风险随之扩大。

制度层面的应对同样滞后。根据好的牙此前报道,纽约州已拟立法禁止AI聊天机器人直接提供医疗建议,将AI风险纳入监管视野;但针对影像真实性的系统性保护机制,目前仍属空白。为此,研究建议医疗影像领域在图像捕获时嵌入不可见水印及加密签名,以验证来源真实性。

研究人员同样指出,该研究目前仍存在一定局限性:样本量相对较小且实验环境与真实临床场景存在差异,深度伪造技术在CT和MRI等3D影像中的影响仍有待进一步验证。

下一篇:这是最后一篇
上一篇:这是第一篇
快讯尾图广告(固定)-副本1
ABUIABACGAAgrOTSxAYo59uBjQcwsAk4ygI
插件代码
✉️
订阅我们的资讯
我们精心整理重要新闻与独家洞察,第一时间直达您的收件箱。
独家资讯、独家数据、独家故事
会员解锁·更多产业深度内容
1  /  30
自由容器
广告图
ABUIABACGAAg6qGpxwYouMDB-QMwsAk4rAI
去往PC端
更大视野·更多细节,点此去往PC端 >>
自由容器
插件代码
【好的牙】内容基于公开资料与专业判断,供行业参考,不构成决策建议,读者需自行判断与承担风险; 版权归属本平台,未经授权不得转载或商用。 🧾 如需勘误 / 投稿 / 合作,请联系客服微信:HDSW_001
一日广告弹窗
4
2026华南国际口腔展