人工智能
人工智能术语解释
人工智能AI工具合集
开发工具(IDE)安装AI编程插件
WPS/Office安装AI插件
腾讯智能工作台ima.copilot使用教程
Windows使用LM Studio部署DeepSeek R1模型
python调用LM Studio(AI)本地API
AI人工智能第三方API大全
Windows安装CUDA环境
Windows使用LLaMA-Factory微调LlaMA 3大模型
Ubuntu虚拟机部署Dify+Ollama搭建智能体和工作流
本文档使用 MrDoc 发布
-
+
首页
Ubuntu虚拟机部署Dify+Ollama搭建智能体和工作流
<font color="red">注意:实测虚拟机中的Ollama响应效率比较低,推荐使用Dify、Coze等在线工作流平台</font> # Dify介绍 Dify 是一个开源的生成式人工智能(GenAI)应用开发平台,旨在帮助开发者快速构建、部署和管理基于大语言模型(LLM)的应用。 它结合了后端即服务(Backend-as-a-Service,BaaS)和 LLM 运营(LLMOps)的理念,提供了从创建智能体到复杂 AI 工作流的全面解决方案。 ## 核心功能 - **低代码/无代码开发**:Dify 提供直观的可视化界面,允许用户通过拖放操作快速构建 AI 应用,无需深厚的编程知识。 - **多模态与多模型支持**:支持多种流行的 LLM(如 OpenAI 的 GPT 系列、Anthropic、Google Gemini 等),并能够灵活切换。 - **RAG 引擎**:通过检索增强生成(Retrieval-Augmented Generation,RAG)技术,将私有数据与 LLM 安全连接,支持多种索引和检索方法。 - **工作流编排**:用户可以定义和管理 AI 工作流,确保输出的稳定性和可控性。 - **插件系统**:Dify 的插件系统和 Marketplace 允许开发者通过定制组件和工具扩展应用功能。 ## 应用场景 - **智能客服与聊天机器人**:快速部署定制化的聊天机器人或 AI 助手,嵌入领域知识,提升客户服务体验。 - **内容生成**:生成清晰、逻辑性强的文档,支持无长度限制的文档生成和长文档总结。 - **企业知识库与智能搜索**:利用企业内部知识库,提供智能搜索和问答服务。 - **自动化流程**:通过 AI 代理(Agent)技术,实现复杂任务的自动化处理。 # 操作系统准备 首先准备一台安装好了Docker的Ubuntu机器(推荐使用免安装版24.04): https://wiki.bafangwy.com/doc/599/ 配置要求: ``` CPU >= 2 Core RAM >= 4 GiB ``` 把虚拟机内存调大一些:   # 检查基础环境 检查Docker和Git是否正确安装: 注意:docker-compose的版本要大于`2.24` `docker -v` `docker-compose -v` `git --version` 启动docker `systemctl start docker`  ## 停止其他HTTP 80、HTTPS 443端口 避免Dify启动时端口冲突 ``` lsof -i :80 lsof -i :443 ``` 如果80端口已启动: ``` systemctl stop apache2 ``` # 下载Dify源代码 (如果连接github有问题,可以用windows下载以后传输到虚拟机) `git clone https://github.com/langgenius/dify.git`  # 启动Dify ``` cd dify cd docker cp .env.example .env docker compose up -d ```   # 登录UI界面 在浏览器中输入虚拟机的IP地址,例如: `http://192.168.142.152` 此时会自动跳转到install `http://192.168.142.152/install` 输入邮箱、用户名、密码:  设置成功以后使用邮箱、密码登录。 # 设置模型供应商 打开:`http://192.168.142.152` 右上角点头像,打开设置  点击:模型供应商  往下翻找到ollama,点安装:  安装成功  (没有安装GPU驱动的情况下,默认使用CPU运行) # 下载千问模型 打开终端(或者Xshell),输入命令: (大小4.7G,时间视网速情况而定) `ollama run qwen2.5:7b`  检查模型下载结果: `ollama list`  # 添加模型供应商 http://192.168.142.152/plugins 点击添加模型  输入虚拟机的IP地址,11434端口是固定的,不要改。  其他设置修改: Dify默认上传文件限制大小15MB,可以在.env里面进行修改配置 `UPLOAD_FILE_SIZE_LIMIT`,设置单个文件大小限制,例如改为 1500M `NGINX_CLIENT_MAX_BODY_SIZE` 也要设置一下,改成 1500M `docker-compose.yaml` 里面也同步更改 配置完成以后,需要重启Dify一系列容器。
无涯
2025年4月28日 16:10
转发文档
收藏文档
上一篇
下一篇
手机扫码
复制链接
手机扫一扫转发分享
复制链接
Markdown文件
分享
链接
类型
密码
更新密码