欢迎光临
保姆级教程:FastGPT构建个人本地知识库(Docker compose快速部署)
   

保姆级教程:FastGPT构建个人本地知识库(Docker compose快速部署)

文章目录

    • 教程概述
    • 什么是知识库
    • 一、Windows下部署
      • 1.安装Docker Desktop
      • 2.创建目录并下载docker-compose.yml
      • 3.启动容器
      • 4.访问 FastGPT
      • 二、Linux下部署
        • 1.安装Docker和Docker-compose
        • 2.创建目录并下载 docker-compose.yml
        • 3.启动容器
        • 4.访问 FastGPT
        • 三、配置文件
          • docker-compose.yml
          • config.json
          • 四、搭建知识库
            • 1.创建知识库
            • 2.导入文本,文档数据等
            • 3.测试向量搜索
            • 4.创建知识库应用
            • 5.与知识库进行对话
            • 五、one-api部署国内大模型
              • 1. docker部署one api
              • 2.登入one api
              • 3.创建渠道和令牌
              • 4.修改FastGPT内配置文件
              • 六、总结

                在数字化时代,拥有一个个人知识库成为了许多技术爱好者的新追求。为了满足这一需求,我特别编写了一篇简明易懂的教程,旨在指导您如何使用FastGPT和Docker Compose来构建您自己的本地知识库。这篇“保姆级”教程,将引导您轻松完成这一任务。

                教程概述

                本教程的核心焦点在于简化部署过程。我们将通过Docker Compose这一强大工具,快速搭建FastGPT驱动的知识库。然而,需要注意的是,教程更多地关注于部署操作本身,而非FastGPT的深入原理探讨。因此,如果您对FastGPT的工作机制和技术细节感兴趣,我强烈建议查阅官方文档进行更深入的学习。FastGPT 是一个基于 LLM 大语言模型的知识库问答系统,提供开箱即用的数据处理、模型调用等能力。同时可以通过 Flow 可视化进行工作流编排,从而实现复杂的问答场景!

                项目地址:https://doc.fastgpt.in/docs/intro/

                在线体验地址:https://fastgpt.in

                什么是知识库

                保姆级教程:FastGPT构建个人本地知识库(Docker compose快速部署),在这里插入图片描述,第1张

                知识库核心流程图

                保姆级教程:FastGPT构建个人本地知识库(Docker compose快速部署),在这里插入图片描述,第2张

                一、Windows下部署

                1.安装Docker Desktop

                我们建议将源代码和其他数据绑定到 Linux 容器中时,将其存储在 Linux 文件系统中,而不是 Windows 文件系统中。

                https://www.docker.com/products/personal/

                2.创建目录并下载docker-compose.yml

                新建FastGPT文件夹

                保姆级教程:FastGPT构建个人本地知识库(Docker compose快速部署),在这里插入图片描述,第3张

                新建文件config.json、docker-compose.yml

                保姆级教程:FastGPT构建个人本地知识库(Docker compose快速部署),在这里插入图片描述,第4张

                3.启动容器

                以管理员身份运行cmd,并进入FastGPT目录

                # 在 docker-compose.yml 同级目录下执行
                docker-compose pull
                docker-compose up -d
                

                保姆级教程:FastGPT构建个人本地知识库(Docker compose快速部署),在这里插入图片描述,第5张

                4.访问 FastGPT

                目前可以通过 localhost:3000 直接访问(注意防火墙)。登录用户名为 root,密码为docker-compose.yml环境变量里设置的 DEFAULT_ROOT_PSW。

                二、Linux下部署

                1.安装Docker和Docker-compose

                # 安装 Docker
                curl -fsSL https://get.docker.com | bash -s docker --mirror Aliyun
                systemctl enable --now docker
                # 安装 docker-compose
                curl -L https://github.com/docker/compose/releases/download/2.20.3/docker-compose-`uname -s`-`uname -m` -o /usr/local/bin/docker-compose
                chmod +x /usr/local/bin/docker-compose
                # 验证安装
                docker -v
                docker-compose -v
                # 如失效,自行百度~
                

                2.创建目录并下载 docker-compose.yml

                # 创建目录
                mkdir fastgpt
                # 进入目录
                cd fastgpt
                # 下载文件
                curl -O https://raw.githubusercontent.com/labring/FastGPT/main/files/deploy/fastgpt/docker-compose.yml
                curl -O https://raw.githubusercontent.com/labring/FastGPT/main/projects/app/data/config.json
                

                3.启动容器

                # 在 docker-compose.yml 同级目录下执行
                docker-compose pull
                docker-compose up -d
                

                4.访问 FastGPT

                目前可以通过 localhost:3000 直接访问(注意防火墙)。登录用户名为 root,密码为docker-compose.yml环境变量里设置的 DEFAULT_ROOT_PSW。

                三、配置文件

                docker-compose.yml

                # 需要修改
                # 中转地址,如果是用官方号,不需要管。务必加 /v1
                OPENAI_BASE_URL=https://api.openai.com/v1
                # api-key
                CHAT_API_KEY=sk-xxxx
                
                # 非 host 版本, 不使用本机代理
                # (不懂 Docker 的,只需要关心 OPENAI_BASE_URL 和 CHAT_API_KEY 即可!)
                version: '3.3'
                services:
                  pg:
                    image: ankane/pgvector:v0.5.0 # git
                    # image: registry.cn-hangzhou.aliyuncs.com/fastgpt/pgvector:v0.5.0 # 阿里云
                    container_name: pg
                    restart: always
                    ports: # 生产环境建议不要暴露
                      - 5432:5432
                    networks:
                      - fastgpt
                    environment:
                      # 这里的配置只有首次运行生效。修改后,重启镜像是不会生效的。需要把持久化数据删除再重启,才有效果
                      - POSTGRES_USER=username
                      - POSTGRES_PASSWORD=password
                      - POSTGRES_DB=postgres
                    volumes:
                      - ./pg/data:/var/lib/postgresql/data
                  mongo:
                    image: mongo:5.0.18
                    # image: registry.cn-hangzhou.aliyuncs.com/fastgpt/mongo:5.0.18 # 阿里云
                    container_name: mongo
                    restart: always
                    ports: # 生产环境建议不要暴露
                      - 27017:27017
                    networks:
                      - fastgpt
                    environment:
                      # 这里的配置只有首次运行生效。修改后,重启镜像是不会生效的。需要把持久化数据删除再重启,才有效果
                      - MONGO_INITDB_ROOT_USERNAME=username
                      - MONGO_INITDB_ROOT_PASSWORD=password
                    volumes:
                      - ./mongo/data:/data/db
                  fastgpt:
                    container_name: fastgpt
                    image: ghcr.io/labring/fastgpt:latest # git
                    # image: registry.cn-hangzhou.aliyuncs.com/fastgpt/fastgpt:latest # 阿里云
                    ports:
                      - 3000:3000
                    networks:
                      - fastgpt
                    depends_on:
                      - mongo
                      - pg
                    restart: always
                    environment:
                      # root 密码,用户名为: root
                      - DEFAULT_ROOT_PSW=1234
                      # 中转地址,如果是用官方号,不需要管。务必加 /v1
                      - OPENAI_BASE_URL=https://api.openai.com/v1
                      - CHAT_API_KEY=sk-xxxx
                      - DB_MAX_LINK=5 # database max link
                      - TOKEN_KEY=any
                      - ROOT_KEY=root_key
                      - FILE_TOKEN_KEY=filetoken
                      # mongo 配置,不需要改. 如果连不上,可能需要去掉 ?authSource=admin
                      - MONGODB_URI=mongodb://username:password@mongo:27017/fastgpt?authSource=admin
                      # pg配置. 不需要改
                      - PG_URL=postgresql://username:password@pg:5432/postgres
                    volumes:
                      - ./config.json:/app/data/config.json
                networks:
                  fastgpt:
                

                config.json

                {
                  "systemEnv": {
                    "openapiPrefix": "fastgpt",
                    "vectorMaxProcess": 15,
                    "qaMaxProcess": 15,
                    "pgHNSWEfSearch": 100
                  },
                  "chatModels": [
                    {
                      "model": "gpt-3.5-turbo",
                      "name": "GPT35",
                      "inputPrice": 0,
                      "outputPrice": 0,
                      "maxContext": 4000,
                      "maxResponse": 4000,
                      "quoteMaxToken": 2000,
                      "maxTemperature": 1.2,
                      "censor": false,
                      "vision": false,
                      "defaultSystemChatPrompt": ""
                    },
                    {
                      "model": "gpt-3.5-turbo-16k",
                      "name": "GPT35-16k",
                      "maxContext": 16000,
                      "maxResponse": 16000,
                      "inputPrice": 0,
                      "outputPrice": 0,
                      "quoteMaxToken": 8000,
                      "maxTemperature": 1.2,
                      "censor": false,
                      "vision": false,
                      "defaultSystemChatPrompt": ""
                    },
                    {
                      "model": "gpt-4",
                      "name": "GPT4-8k",
                      "maxContext": 8000,
                      "maxResponse": 8000,
                      "inputPrice": 0,
                      "outputPrice": 0,
                      "quoteMaxToken": 4000,
                      "maxTemperature": 1.2,
                      "censor": false,
                      "vision": false,
                      "defaultSystemChatPrompt": ""
                    },
                    {
                      "model": "gpt-4-vision-preview",
                      "name": "GPT4-Vision",
                      "maxContext": 128000,
                      "maxResponse": 4000,
                      "inputPrice": 0,
                      "outputPrice": 0,
                      "quoteMaxToken": 100000,
                      "maxTemperature": 1.2,
                      "censor": false,
                      "vision": true,
                      "defaultSystemChatPrompt": ""
                    }
                  ],
                  "qaModels": [
                    {
                      "model": "gpt-3.5-turbo-16k",
                      "name": "GPT35-16k",
                      "maxContext": 16000,
                      "maxResponse": 16000,
                      "inputPrice": 0,
                      "outputPrice": 0
                    }
                  ],
                  "cqModels": [
                    {
                      "model": "gpt-3.5-turbo",
                      "name": "GPT35",
                      "maxContext": 4000,
                      "maxResponse": 4000,
                      "inputPrice": 0,
                      "outputPrice": 0,
                      "toolChoice": true,
                      "functionPrompt": ""
                    },
                    {
                      "model": "gpt-4",
                      "name": "GPT4-8k",
                      "maxContext": 8000,
                      "maxResponse": 8000,
                      "inputPrice": 0,
                      "outputPrice": 0,
                      "toolChoice": true,
                      "functionPrompt": ""
                    }
                  ],
                  "extractModels": [
                    {
                      "model": "gpt-3.5-turbo-1106",
                      "name": "GPT35-1106",
                      "maxContext": 16000,
                      "maxResponse": 4000,
                      "inputPrice": 0,
                      "outputPrice": 0,
                      "toolChoice": true,
                      "functionPrompt": ""
                    }
                  ],
                  "qgModels": [
                    {
                      "model": "gpt-3.5-turbo-1106",
                      "name": "GPT35-1106",
                      "maxContext": 1600,
                      "maxResponse": 4000,
                      "inputPrice": 0,
                      "outputPrice": 0
                    }
                  ],
                  "vectorModels": [
                    {
                      "model": "text-embedding-ada-002",
                      "name": "Embedding-2",
                      "inputPrice": 0,
                      "outputPrice": 0,
                      "defaultToken": 700,
                      "maxToken": 3000,
                      "weight": 100
                    }
                  ],
                  "reRankModels": [],
                  "audioSpeechModels": [
                    {
                      "model": "tts-1",
                      "name": "OpenAI TTS1",
                      "inputPrice": 0,
                      "outputPrice": 0,
                      "voices": [
                        { "label": "Alloy", "value": "alloy", "bufferId": "openai-Alloy" },
                        { "label": "Echo", "value": "echo", "bufferId": "openai-Echo" },
                        { "label": "Fable", "value": "fable", "bufferId": "openai-Fable" },
                        { "label": "Onyx", "value": "onyx", "bufferId": "openai-Onyx" },
                        { "label": "Nova", "value": "nova", "bufferId": "openai-Nova" },
                        { "label": "Shimmer", "value": "shimmer", "bufferId": "openai-Shimmer" }
                      ]
                    }
                  ],
                  "whisperModel": {
                    "model": "whisper-1",
                    "name": "Whisper1",
                    "inputPrice": 0,
                    "outputPrice": 0
                  }
                }
                

                四、搭建知识库

                1.创建知识库

                保姆级教程:FastGPT构建个人本地知识库(Docker compose快速部署),在这里插入图片描述,第6张

                默认使用GPT3.5的

                保姆级教程:FastGPT构建个人本地知识库(Docker compose快速部署),在这里插入图片描述,第7张

                2.导入文本,文档数据等

                保姆级教程:FastGPT构建个人本地知识库(Docker compose快速部署),在这里插入图片描述,第8张

                3.测试向量搜索

                导入文档后可以对文本进行测试,0.8215代表文本和知识库的相似程度

                保姆级教程:FastGPT构建个人本地知识库(Docker compose快速部署),在这里插入图片描述,第9张

                4.创建知识库应用

                保姆级教程:FastGPT构建个人本地知识库(Docker compose快速部署),在这里插入图片描述,第10张

                选择需要关联的知识库

                保姆级教程:FastGPT构建个人本地知识库(Docker compose快速部署),在这里插入图片描述,第11张

                5.与知识库进行对话

                保姆级教程:FastGPT构建个人本地知识库(Docker compose快速部署),在这里插入图片描述,第12张

                五、one-api部署国内大模型

                项目地址:https://github.com/songquanpeng/one-api

                1. docker部署one api

                在终端中输入相关命令

                项目中的3000端口被占用,需要重新设定一个端口映射

                docker run --name one-api -d --restart always -p 13000:3000 -e TZ=Asia/Shanghai -v /home/ubuntu/data/one-api:/data justsong/one-api
                

                命令详解

                docker run: 这是 Docker 的主要命令之一,用于创建并启动一个新的容器。

                –name one-api: 这个选项为即将运行的容器设置一个名字,这里名字被设为 one-api。这样做可以更容易地识别和引用容器。

                -d: 这个选项表示容器将在“分离模式”下运行,意味着它会在后台运行。

                –restart always: 这指定了容器的重启策略。在这里,always 意味着如果容器停止(无论是由于错误还是由于任何其他原因),它将自动重启。

                -p 13000:3000: 这是端口映射。此设置将容器内的 3000 端口映射到宿主机的 13000 端口。这意味着宿主机的 13000 端口上的流量将被转发到容器的 3000 端口。

                -e TZ=Asia/Shanghai: 这个选项设置了一个环境变量。在这里,它设置了容器的时区为 Asia/Shanghai。

                -v /home/ubuntu/data/one-api:/data: 这是一个卷挂载。它将宿主机的 /home/ubuntu/data/one-api 目录挂载到容器内的 /data 目录。这允许在容器和宿主机之间共享数据。

                justsong/one-api: 这是要运行的 Docker 镜像的名称。在这个例子中,它将从 Docker Hub(或者其他配置的注册中心)拉取名为 justsong/one-api 的镜像。

                2.登入one api

                根据设定的端口,在浏览器内输入localhost:13000

                保姆级教程:FastGPT构建个人本地知识库(Docker compose快速部署),在这里插入图片描述,第13张

                默认账号:root

                默认密码:123456

                第一次登陆需要重新设置8位密码。

                3.创建渠道和令牌

                添加新的渠道

                保姆级教程:FastGPT构建个人本地知识库(Docker compose快速部署),在这里插入图片描述,第14张

                阿里云的api-key

                保姆级教程:FastGPT构建个人本地知识库(Docker compose快速部署),在这里插入图片描述,第15张

                添加令牌

                保姆级教程:FastGPT构建个人本地知识库(Docker compose快速部署),在这里插入图片描述,第16张

                4.修改FastGPT内配置文件

                config.json

                 "chatModels": [
                	...
                   {
                       "model": "qwen-turbo",
                       "name": "通义千问",
                       "maxContext": 8000,
                       "maxResponse": 4000,
                       "quoteMaxToken": 2000,
                       "maxTemperature": 1,
                       "vision": false,
                       "defaultSystemChatPrompt": ""
                   }
                   ...
                   ]
                

                docker-compose.yml

                	# base_url为ip地址:13000
                      - OPENAI_BASE_URL=http://*******:13000/v1
                    # api-key点击令牌复制的key
                      - CHAT_API_KEY=sk-7s1VO4aKfcEkfgQ3Fd35Bf10C60244799c88Ae40Ca98FdF0
                

                修改完成后执行指令

                docker-compose pull
                docker-compose up -d
                

                在应用中可以选择对应的模型

                保姆级教程:FastGPT构建个人本地知识库(Docker compose快速部署),在这里插入图片描述,第17张

                六、总结

                我非常鼓励所有读者亲自实践本教程,并与我分享您的体验。如果在实践过程中遇到任何挑战,或有任何疑问,欢迎在评论区留言或加入我们的讨论群。在这个平台上,我们可以共同探讨,解决遇到的问题,共同成长。

                构建个人知识库不仅是一个技术挑战,更是一次学习和成长的旅程。本教程旨在为您铺平这条路,帮助您轻松起步。记得,在掌握基础之后,一定要查阅官方文档,深入理解背后的技术原理,这将对您的技术成长大有裨益。

                期待看到您的实践成果,并期待在技术的道路上与您携手前行!

                 
打赏
版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
文章名称:《保姆级教程:FastGPT构建个人本地知识库(Docker compose快速部署)》
文章链接:https://goodmancom.com/wl/175834.html