03-Dify搭建企业内部AI问答机器人

  1. 嵌入模型(Embedding模型)
    1. bge-m3模型
  2. 知识库嵌入bge-m3模型
  3. 创建内部AI问答机器人

上节课完成后,你已经搭建好了最基本的Dify环境了,这节课我们学习如何用Dify搭建企业内部AI问答机器人。简单说这个AI机器人可以解决新员工入职企业后,有不懂的问题,直接问这个机器人就可以了,而不再需要复杂的培训。

好的,废话不多说,直接开始搭建这样的AI机器人。

本节学习大纲

嵌入模型(Embedding模型)

你需要先上传知识库,这个很简单,比如我们把公司的员工手册上传到Dify的知识库中(视频中会展示上传方法)。然后这里有个索引方式,这里有两个选项高质量经济

  • 高质量:调用嵌入模型处理文档实现更精确的检索,可以帮助LLM生成高质量的答案。
  • 经济:不用AI模型,而只是把句子分成关键词进行检索(比如一个句子分成10个关键词),准确性不高。

这里说的嵌入模型,也就是Embedding模型。我们先来了解一下什么是Embedding模型。

Embedding模型可以理解为一种“数据翻译官”,它把人类能看懂的文字、图片、视频等内容,转换成计算机能理解的“数学语言”——也就是一串数字组成的向量。

bge-m3模型

经过我多次测试,发现bge-m3模型效果最好,所以我就用这个模型来搭建这个AI机器人。

Ollama-BGE-M3

这是一个开源的Embedding模型。BGE-M3 是一个专门处理文本的“超级翻译官”,它能把各种语言、各种长度的文字(比如一句话、一篇文章甚至整本书)转换成计算机能理解的“数学密码”。

这里需要使用Ollama把bge-m3模型下载到本地,你可以到Ollama的官网下载,然后在搜索栏搜索bge-m3,然后选择bge-m3,复制下面的运行指令。

ollama run bge-m3

键盘按Win+R打开运行,然后输入cmd,回车打开命令行,然后把复制的指令粘贴进去,回车运行。就可以下载bge-m3模型了。

下载好后,在本地Dify里增加一个模型,这里要注意选择Text Embedding,然后点击输入模型名称,我这里是bge-m3,地址是http://host.docker.internal:11434 然后点击保存

基础URL:http://host.docker.internal:11434

其他的保持默认即可,这样模型就安装好了。需要注意的就是模型类型要选择Text Embedding

这些都完成后,再次上传知识库,就可以使用高级高质量的索引方式了。

知识库嵌入bge-m3模型

当bge-m3模型安装好后,还需要在本地知识库里(也就是员工手册)进行嵌入bge-m3模型。再次点击创建知识库,然后上传员工手册,点击下一步,选择高质量,Embedding模型选择bge-m3,剩下的保持默认即可,然后点击保存并处理

bge-m3嵌入文档

做完这部就进行嵌入了,嵌入完成后,这个知识库(员工手册),就可以使用了。

创建内部AI问答机器人

当知识库准备好以后,就可以新创建一个新的聊天了。到工作室界面,点击创建空白应用,然后选择聊天助手,给应用起个名字,然后可输入一段描述。然后点击创建。

在知识库模块中选择你刚才添加的员工手册,然后就可以问个问题测试一下了。

我是一名刚入职的员工,什么时候可以休年休假?

测试中可以看出,聊天对话已经给出了答案,而且引用了员工手册中的内容,测试好以后就可以发布这个应用了。这样一个内部员工使用的AI机器人就已经建立完成了。


转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。可以在下面评论区评论,也可以邮件至 web0432@126.com