|
Post by account_disabled on Feb 12, 2024 3:45:18 GMT -5
在该场景下用户首先在对话系统中描述自己的症状,然后问答系统会根据输入的信息回复初步的医学建议。 传统实现方法如规则引擎和知识图谱等由于缺乏对语境和语义的深层理解,导致无法处理过于复杂的问题。随着大语言模型(LLM)的出现,医疗智能问答系统处理更加复杂的语境以及更加准确的结果输出有望实现,所以笔者决定尝试基于当前主流的RAG架构搭建一个医学智能问答系统。 一、产品目标 打造一个基于智能问答系统的“数字全科医生” 这里“全科医生”不是“全能医生”的意思,全科医生一般是指在基层医疗机构(如社区卫生服务中心。 乡村诊所等)工作的医生,全科医生通常承担着基层的基础医疗服务,笔者对这个系统的定位是可以提供一些初步的诊断、患者教育和科普功能,而不是用它提供治疗方案(能力边界)。 具体可以拆分以下几个子目标: 能根据用户输入的信息,初步 新加坡电报号码 诊断是否存在病理性的因素以及可能的病因; 能提供非治疗方案的建议,如生活方式干预、引导去医院做进一步的检查等; 尽量降低错误率,做到“宁缺毋滥”; 尽量避免提供直接的用药方案指导或者治疗方案。 二、RAG架构及其工作流程 RAG(Retrieval Augmented Generation)通常翻译为检索增强生成,所以它的核心是“检索”。 用户在使用LLM回答问题之前先“检索”外挂知识库的信息,然后将检索到的信息提交给LLM,LLM在“学会”匹配的知识库的内容之后再去生成回答,这样就可以有效减少LLM“幻觉”现象。 B端究竟需要什么样的产品经理? B端产品经理都是以提升供应侧的工作效率为目的,所以B端需求主要是以业务问题为导向。 这个是B端产品比较重要的一点,B端产品是服务于一个主体 ... 查看详情 > RAG工作流程大致如下: 第一步:创建知识库 首先要对获取的数据做基础的清洗保证质量; 然后系统对数据进行“分块”(Chunk)处理,通常较小的文本片段可以使RAG系统更快、更准确地发现相关上下文; 再进一步就是将这些Chunks转换成计算机可以理解的数据也就是向量化(Embedding); 最后将获取的向量信息存储在向量数据库(Vector DB)中备用。
|
|