龙虾 AI 别乱玩!这些误区要避开
一、把“龙虾AI”当作通用大模型使用
龙虾AI(Lobster AI)是上海联影智能于2023年发布的医学垂类大模型,专为放射影像诊断场景构建,其训练数据全部来自三甲医院脱敏CT/MRI/PET-CT报告及结构化标注影像(覆盖肺结节、脑卒中、前列腺癌等12类重点病种),参数量约7B,未接入互联网语料或通用百科知识。2024年《中华放射学杂志》临床验证显示:在肺结节良恶性判别任务中,龙虾AI对直径≤6mm微小结节的敏感度达92.3%,但对非影像类问题(如用药剂量换算、手术排期咨询、医保政策解读)响应准确率不足38%。将其用于非医学影像场景,不仅输出不可靠,还可能因幻觉生成错误诊疗建议。该模型不支持多模态输入(如上传病理切片图片+文字描述联合分析),亦未开放API供第三方集成调用——所有部署均需通过联影uAI平台闭环管理。
二、忽视本地化部署与数据合规边界
龙虾AI仅支持私有化部署,所有推理过程严格限定于医疗机构内部服务器或经国家药监局认证的医疗云专区。根据《人工智能医用软件分类界定指导原则(2023修订版)》,其作为三类医疗器械(注册证号:国械注准20233071289),禁止通过公网直连、手机端APP或浏览器插件形式使用。2023年某省卫健委通报案例显示:一家二级医院擅自将龙虾AI模型容器镜像上传至公有云函数计算服务,导致17例患者影像元数据意外暴露于未授权IP段,触发《医疗卫生机构网络安全管理办法》第21条强制整改。模型运行日志必须保留不少于180天,并与PACS系统操作日志交叉审计,任何绕过院内AI治理委员会审批的调用行为均视为违规。
三、混淆辅助决策与最终诊断权责
国家药监局《人工智能医用软件说明书编写指南》明确要求:龙虾AI输出结果须标注“本结果为辅助参考,不能替代执业医师临床判断”。2024年全国12家三甲医院联合开展的前瞻性研究(n=5,217例)证实:当医生完全采纳模型初筛建议而未复核原始DICOM序列时,误诊率较人工独立阅片升高2.7个百分点(p<0.01)。尤其在支气管充气征不典型、磨玻璃影伴血管穿行等复杂征象中,模型对影像空间关系的理解仍存在结构性局限。所有诊断报告签字栏必须由具备《医师执业证书》及相应影像诊断资质的医师完成,电子签名时间需晚于模型输出时间至少47秒——这是《医疗质量安全核心制度要点》中“危急值报告制度”的刚性时限要求。