tanscp

简单几步,Mac本地部署deepseek

这里需要用到2个工具:

安装Ollama

Ollama是一个用于本地管理和运行大模型的工具,在官网中下载对应的操作系统版本。
我安装的是mac版本的,mac配置为:M3芯片,内存16G,磁盘空间512G,macOS Sequoia 15.3。
安装成功后返回官网中找到Models,选择要安装的大模型版本

选择deepseek模型版本

就deepseek模型的版本选择要根据自己的电脑配置来,问问chatGPT,看看它的建议:

这些只是电脑硬件上的差异,还得看看实际的使用场景,简单总结:

我选择的部署的是deepseek-r1:7b,7B是从qwen2的模型中蒸馏出来的,参数量是7.62B,自注意力有28个头,我的机器应该能跑得起来

部署deepseek

在启动台找到终端(或者是第三方的app也行,我用的是Termius),直接复制以下指令,回车运行。

ollama run deepseek-r1:7b

静待模型下载部署(下载的过程着实让人着急),部署成功后即可开始与大模型对话

让我们来验证一下模型是否正常运行,问一个经典的比大小例子:9.9和9.11哪个比较大?

套个前端壳子-Open WebUI

不想折腾的可以直接用Chatbox,教程在这

docker部署

我的mac上安装了Docker,就用Docker部署,不需要配置环境
新建一个openWebUI目录,在里面新建docker-compose.yaml

version: '3.8'

services:
  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: open-webui
    ports:
      - "3000:8080"
    extra_hosts:
      - "host.docker.internal:host-gateway"
    volumes:
      - ./data:/app/backend/data
    environment:
      - ENABLE_OPENAI_API=False
      - ENABLE_RAG_WEB_SEARCH=True
      - RAG_WEB_SEARCH_ENGINE="duckduckgo"
      - RAG_WEB_SEARCH_RESULT_COUNT=3
      - RAG_WEB_SEARCH_CONCURRENT_REQUESTS=10
    restart: unless-stopped

在同级文件夹创建 data 目录,后台启动服务

docker-compose up -d

docker开始拉取镜像部署

部署完成

也可以直接用python安装,在终端或命令行工具中运行以下命令,安装 Open-WebUI:pip install open-webui

OpenWebUI配置

按照提示新建管理员账号

还是用经典的比大小例子:9.9和9.11哪个比较大?

当前页面是本站的「Google AMP」版。查看和发表评论请点击:完整版 »