Skip to content

Commit

Permalink
docs:用户答疑的官方文档补充 (#3540)
Browse files Browse the repository at this point in the history
* docs:用户答疑的官方文档补充

* 问题回答的内容修补
  • Loading branch information
Jiangween authored Jan 10, 2025
1 parent ed619ed commit cef8487
Show file tree
Hide file tree
Showing 5 changed files with 61 additions and 2 deletions.
Binary file added docSite/assets/imgs/dataset1.png
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Binary file added docSite/assets/imgs/dataset2.png
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
4 changes: 4 additions & 0 deletions docSite/content/zh-cn/docs/development/faq.md
Original file line number Diff line number Diff line change
Expand Up @@ -19,6 +19,10 @@ images: []

## 二、通用问题

### 本地部署的限制

具体内容参考https://fael3z0zfze.feishu.cn/wiki/OFpAw8XzAi36Guk8dfucrCKUnjg。

### 能否纯本地运行

可以。需要准备好向量模型和LLM模型。
Expand Down
10 changes: 9 additions & 1 deletion docSite/content/zh-cn/docs/faq/app.md
Original file line number Diff line number Diff line change
Expand Up @@ -13,4 +13,12 @@ weight: 908

但是,当连续问题之间的关联性较小,模型判断的准确度可能会受到限制。在这种情况下,我们可以引入全局变量的概念来记录分类结果。在后续的问题分类阶段,首先检查全局变量是否存有分类结果。如果有,那么直接沿用该结果;若没有,则让模型自行判断。

建议:构建批量运行脚本进行测试,评估问题分类的准确性。
建议:构建批量运行脚本进行测试,评估问题分类的准确性。

## 系统编排配置中的定时执行,如果用户打开分享的连接,停留在那个页面,定时执行触发问题

发布后,后台生效。

## AI对话回答要求中的Markdown语法取消

在针对知识库的回答要求里有, 要给它配置提示词,不然他就是默认的,默认的里面就有该语法。
49 changes: 48 additions & 1 deletion docSite/content/zh-cn/docs/faq/dataset.md
Original file line number Diff line number Diff line change
Expand Up @@ -14,4 +14,51 @@ weight: 910
## 知识库配置里的文件处理模型是什么?与索引模型有什么区别?

* **文件处理模型**:用于数据处理的【增强处理】和【问答拆分】。在【增强处理】中,生成相关问题和摘要,在【问答拆分】中执行问答对生成。
* **索引模型**:用于向量化,即通过对文本数据进行处理和组织,构建出一个能够快速查询的数据结构。
* **索引模型**:用于向量化,即通过对文本数据进行处理和组织,构建出一个能够快速查询的数据结构。

## 基于知识库的查询,但是问题相关的答案过多。ai回答到一半就不继续回答。

FastGPT回复长度计算公式:

最大回复=min(配置的最大回复(内置的限制),最大上下文(输入和输出的总和)-历史记录)

18K模型->输入与输出的和

输出增多->输入减小

所以可以:

1. 检查配置的最大回复(回复上限)
2. 减小输入来增大输出,即减小历史记录,在工作流其实也就是“聊天记录”

配置的最大回复:

![](/imgs/dataset1.png)

![](/imgs/dataset2.png)

1. 私有化部署的时候,后台配模型参数,可以在配置最大上文时候,预留一些空间,比如 128000 的模型,可以只配置 120000, 剩余的空间后续会被安排给输出


## 受到模型上下文的限制,有时候达不到聊天记录的轮次,连续对话字数过多就会报上下文不够的错误。

FastGPT回复长度计算公式:

最大回复=min(配置的最大回复(内置的限制),最大上下文(输入和输出的总和)-历史记录)

18K模型->输入与输出的和

输出增多->输入减小

所以可以:

1. 检查配置的最大回复(回复上限)
2. 减小输入来增大输出,即减小历史记录,在工作流其实也就是“聊天记录”

配置的最大回复:

![](/imgs/dataset1.png)

![](/imgs/dataset2.png)

1. 私有化部署的时候,后台配模型参数,可以在配置最大上文时候,预留一些空间,比如 128000 的模型,可以只配置 120000, 剩余的空间后续会被安排给输出

0 comments on commit cef8487

Please sign in to comment.