0471-4953016
当前位置:首页-新闻资讯-行业资讯

技术架构:让AI Agent扎根在HIS里面

发布时间:2026-05-09阅读次数:1

核心思路:不另起炉灶,做系统里的"隐形助手"

在医疗信息化领域,AI落地最大的坑不是技术不够好,而是医生根本不愿意多点一个按钮。

我们的核心思路非常明确——不另起炉灶,不搞独立登录,让AI变成HIS系统里一个看不见的助手。

医生写病历、开医嘱、填清单的时候,它在后台默默看着;发现问题就弹个窗提醒一下;需要调数据就去抓,需要查规则就去问知识库。医生该怎么干还怎么干,AI只在最关键的节点轻轻推一把。

这套架构,我们分成三层来讲。



第一层:数据融合层——让AI能"看见"一个完整的患者

医院里的数据从来都不是一家人。

患者的病程记录躺在电子病历(EMR)里,医嘱在HIS里,检验结果在LIS里,影像报告在PACS里,手术记录在手麻系统里……以前各系统各说各话,AI想理解一个患者,得跨五六个系统去翻,效率低不说,还容易漏掉关键信息。

数据融合层要解决的,就是这个问题。

我们通过集成平台,把HIS、EMR、LIS、PACS、手麻系统等所有源系统的数据,统一汇聚到一个数据湖里。不是简单地搬家,而是做了语义对齐——同一个患者在不同系统里可能有不同的标识,得先把身份打通;同一条检验记录在LIS里是代码,在EMR里是文字描述,得先把格式统一。

最终效果是:AI Agent一次性就能把一个人从入院到出院的所有诊疗数据全部调出来,像一个老主任查房一样,病历、医嘱、检验、影像、手术记录,一眼全看到。

这是一切智能的前提。没有这一层,后面的模型再聪明,也是盲人摸象。



第二层:模型服务层——一个大脑带几个专家

很多人以为AI就是一个大模型,其实在医疗场景里,光靠一个通用大模型远远不够。

我们的做法是:部署一个经过临床微调的大语言模型作为"大脑",同时挂载几个专用小模型做配合。

  • 大模型负责理解复杂的临床语境。比如医生写了一段"患者入院后反复高热,经验性抗感染治疗效果欠佳,后痰培养提示耐药菌,调整为碳青霉烯类",大模型能读懂这段话背后的逻辑链——为什么换药、换了什么药、依据是什么。
  • ICD编码映射模型专门干一件事:把临床诊断描述精准映射到ICD-10编码。这活看着简单,实际全是坑——"2型糖尿病伴周围神经病变"到底是先编码糖尿病还是先编码神经病变,不同版本规则不一样,得专用模型来处理。
  • 手术操作识别模型专门从手术记录的大段文字里提取关键操作步骤,判断主要手术和辅助手术,为DRG分组提供依据。
  • 时间序列模型专门处理检验指标的动态变化,比如白细胞从15降到8再升到12,这个趋势对判断感染控制很重要,但大模型对数字不敏感,得靠专用模型来捕捉。

大模型负责"懂",小模型负责"准",各取所长,相互配合。

所有模型通过统一的服务接口对外暴露,上层应用不用关心底下跑的是哪个模型,只需要发请求、收结果。



第三层:应用交互层——嵌在医生工作站里,用完即走

这一层是医生和编码员真正接触到的部分,也是我们花心思最多的地方。

原则只有一个:不改变医生和编码员原有的操作习惯。

具体怎么做?

  • 医生填完病案首页、点击保存病历的那一刻,AI Agent自动触发质控。不用医生手动点"开始检查",后台已经把这份病历的完整性、逻辑性、编码准确性全部跑了一遍。有问题就弹窗,没问题就安静通过。
  • 编码员核对编码的时候,AI Agent实时校验。编码员每敲一个编码,旁边就显示AI给出的建议编码和置信度,点一下就能采纳,不点就按自己的来。
  • 需要调取证据链的时候,一键展开就能看到原始病程记录、医嘱内容、检验报告、影像结论,所有支撑编码的依据一目了然,不用再去翻五六个系统。

AI不在的时候,医生感觉不到它的存在;AI在的时候,只在真正需要的节点出现。

这才是医疗AI该有的样子——不是又一个要学的新系统,而是原来那个系统突然变聪明了。


写在最后

三层架构,说白了就是三句话:

底层把数据打通,让AI看得全;中间把模型配好,让AI判得准;上层把交互做轻,让医生用得惯。
上一篇
已经是第一篇