1.LLMs 存在模型幻觉问题,请问如何处理?
检索+LLM。
先用问题在领域数据库里检索到候选答案,再用LLM对答案进行加工。
2.基于LLM+向量库的文档对话 思路是怎么样?
- 加载文件
- 读取文本
- 文本分割
- 文本向量化
- 问句向量化
- 在文本向量中匹配出与问句向量最相似的top k个
- 匹配出的文本作为上下文和问题一起添加到 prompt 中
- 提交给 LLM 生成回答
3.基于LLM+向量库的文档对话 核心技术是什么?
- 基于LLM+向量库的文档对话 核心技术:embedding
- 思路:将用户知识库内容经过 embedding 存入向量知识库,然后用户每一次提问也会经过 embedding,利用向量相关性算法(例如余弦算法)找到最匹配的几个知识库片段,将这些知识库片段作为上下文,与用户问题一起作为 promt 提交给 LLM 回答
4.基于LLM+向量库的文档对话 prompt 模板 如何构建?
已知信息:
{context}
根据上述已知信息,简洁和专业的来回答用户的问题。如果无法从中得到答案,请说 “根据已知信息无法回答该问题” 或 “没有提供足够的相关信息”,不允许在答案中添加编造成分,答案请使用中文。
问题是:{question}