功能介绍
知识库功能允许您将企业内部的文档、产品资料、常见问答(FAQ)及业务规范等非结构化数据进行集中管理和结构化处理,使其成为一个可供大语言模型(LLM)随时检索的外部知识源。
与大模型在预训练时所使用的静态数据不同,本知识库中的内容可以被随时更新 。这确保了您的 AI 智能体(Agent)能够获取到最新的、最准确的信息,从而避免因知识陈旧或缺失而导致的回答错误。
工作原理
当 AI 智能体配置了知识库后,其回复流程如下:
-
用户提问触发检索:当接收到用户的问题时,系统不会立即直接让大模型作答,而是先将用户的问题作为检索指令,在您配置的知识库中进行语义搜索 。
-
召回并筛选相关知识:知识库会基于语义相似度,从海量文档中召回与问题最相关的内容片段 。这个过程可以通过以下核心参数进行精细化调控:
Top K (候选数):定义了系统从知识库中一次性抓取最相关的多少个知识片段 。K 值越高,信息覆盖可能越全面,但也会带来更高的时延和成本 。
Score 阈值 (相关度):这是一个质量门槛,只有相似度得分高于该阈值的知识片段才会被采纳 。阈值越高,召回的内容与问题相关性越强,但也可能因条件严苛导致“无内容可供参考” 。
-
动态注入上下文:筛选出的高质量知识片段,会作为一个名为
{{currentKnowledgeBase}}的变量 ,被动态地、实时地注入到发送给大语言模型的指令(Prompt)中。 -
生成精准回答:大语言模型在接收到指令后,会被严格要求 “必须基于
{{currentKnowledgeBase}}中提供的信息来生成回答” 。这极大地约束了模型的回答范围,使其从“开放式创作”变为“基于给定材料的理解与回答”,从而生成更精准、更可靠的答复 。
通过这种方式,开发者可以确保 AI 智能体不仅依赖其固有的通用知识,还能处理来自企业实时文档的动态信息,显著提升回答的准确性与相关性。
核心优势
实时性 (Real-time):知识库中的数据可随时更新,确保 AI 智能体获得最新的上下文信息,即时响应业务变化 。
精准性 (Precision):通过检索增强生成(RAG)技术,强制模型基于给定的、可信的文档片段进行回答,能够有效减少“模型幻觉”(即凭空捏造信息)的现象 。
灵活性 (Flexibility):开发者可以轻松连接到自有的外部知识库(如 Dify) ,并根据具体业务场景,通过调整召回参数(Top K、Score 阈值)来平衡回复的相关性与响应速度,以保障最佳客户体验 。
Dify预先配置知识库

NXLINK 连接外部知识库
以Dify作为示例
鉴权信息预备
添加Dify需要的请求头鉴权
请求头 Authorization
|
请求头 |
值 |
|
|
Authorization |
Bearer {{dify api key}} |
{{dify api key}}可以在 Dify Cloud 获取 |

知识库连接信息填写

Top K(候选数)
从向量库里按相似度取回前 K 个最像的问题/段落,用来给大模型当上下文。
K 越大:召回更全(不容易漏),但成本与时延更高,且可能把不太相关的段落也带进来。
Score 阈值(相似度下限)
给取回的段落加一道门槛:相似度低于阈值的,直接丢弃。
阈值越高:更精准(更少离题),但更容易“取不到内容”导致模型说不知道。
简单心智模型:Top K = 广度/抓多少;Score 阈值 = 质量门槛/要多像才算。
两者如何配合(例子)
候选相似度为:0.78、0.33、0.29、0.08
Top K=3,阈值=0.10 ⇒ 返回 0.78、0.33、0.29
Top K=3,阈值=0.40 ⇒ 只返回 0.78
Top K=2,阈值=0.10 ⇒ 返回 0.78、0.33
知识库召回的时间影响智能体回复客户的时间,在延时敏感的场景请严格控制知识库使用与参数,平衡回复相关性与响应速度,保证客户体验。
连接完成后点击体验召回

智能体使用知识库
选择已连接的知识库后,可在提示词内引用变量 {{currentKnowledgeBase}} 来使用知识库。知识库召回的时间影响智能体回复客户的时间,在延时敏感的场景请严格控制知识库使用与参数,平衡回复相关性与响应速度,保证客户体验。


有无知识库响应内容对比

