Skip to content

Latest commit

 

History

History
58 lines (48 loc) · 4.6 KB

install.zh-CN.md

File metadata and controls

58 lines (48 loc) · 4.6 KB

混合 AI 架构下的 Web 应用开发探讨

安装 Ollama 框架

  • 访问 Ollama 官网 https://ollama.com/ 下载安装包
  • 安装完成后 Ollama 会自启动,检查 http://localhost:11434/ 是否启动成功
  • 如果 Ollama 没有自启动,则执行 ollama serve 命令手动启动 Ollama 服务
  • 设置系统环境变量 OLLAMA_MODELS 的值为模型保存的路径,比如 D:\ollama_models
  • 设置系统环境变量 OLLAMA_ORIGINS 的值为 *,允许跨域访问 Ollama 服务
  • 设置完系统环境变量,需要重启 Ollama 服务

下载并安装 Llama 模型

  • 访问 Hugging Face 官网 https://huggingface.co/ 或镜像 https://hf-mirror.com/ 下载模型
  • llama gguf 作为关键字过滤模型,下载 Llama 模型的 .gguf 文件,选择 Meta-Llama-3.1-8B-Instruct-GGUF
  • Files and versions 下载 Meta-Llama-3.1-8B-Instruct-Q5_K_M.gguf 保存到 models 目录下
  • models 目录下创建或编辑 llama.modelfile 文件,内容为 FROM ./Meta-Llama-3.1-8B-Instruct-Q5_K_M.gguf
  • models 目录下执行创建命令:ollama create llama3:8b -f ./llama.modelfile
  • 执行 ollama list 查看 llama3:8b 模型是否在列表中,执行 ollama run llama3:8b 测试该模型

安装 Chroma 向量数据库

  • 访问 Python 官网 https://www.python.org/ 下载并安装(已安装请忽略)
  • 执行安装 Chroma 命令:pip install chromadb
  • 打开根目录下的 .env 文件,添加 ANONYMIZED_TELEMETRY=False 禁用 Chroma 发送收集的数据
  • .env 文件添加 CHROMA_SERVER_CORS_ALLOW_ORIGINS='["http://localhost:3000","http://127.0.0.1:5500"]'
  • 在根目录下执行 chroma run 命令,检查 http://localhost:8000/ 是否启动成功
  • 在根目录下会自动创建 chroma_data 目录,可以访问 http://localhost:8000/docs 测试 Chroma 提供的 API

安装工程依赖,下载 Gemma 模型

访问混合 AI 应用示例