Skip to content

使用 Ollama 运行本地大模型

Ollama 是一个本地 LLM 服务器,它允许您运行本地大模型,而无需使用云服务。

安装框架

对于Windows用户和MacOS用户

您需要在 Ollama官网 下载框架。运行前注意先修改模型下载存放目录,请参见本页下方的常见问题。安装完成后,您需要按住Windows徽标和R键打开cmd(命令提示符),输入“Ollama”来检测是否安装成功,如果成功,会弹出如下内容:

bash
Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

Use "ollama [command] --help" for more information about a command.

如果没有弹出,请重复安装内容或检查下载内容是否被浏览器拦截。

对于Linux用户

Oops……

这里没有您想要的东西。如果您有需要,请在 “关于文档” 页面提交 issue 给我们。

安装模型

对于Windows用户和MacOS用户

首先想好您需要安装的大模型,这里我们以通义千问大模型(qwen2)作为演示对象。

您需要在命令提示符或者终端中输入以下指令安装大模型,前提是您已正确安装Ollama:

bash
ollama run qwen2

等待安装完成后,便可开始对话。

对于Linux用户

Oops……

这里没有您想要的东西。如果您有需要,请在 “关于文档” 页面提交 issue 给我们。

模型支持

官方支持的模型,可以在 Ollama | Library 上面找到。

常见问题

模型下载后被保存在哪里?

默认情况下,模型下载后一般被保存在以下位置:

  • macOS: ~/.ollama/models
  • Linux: /usr/share/ollama/.ollama/models #作为系统服务启动时
  • Linux: /home//.ollama/models #当前用户启动时
  • Windows: C:\Users\.ollama\models
Windows用户如何修改下载模型的默认存放目录?
  • 只设置当前用户:setx OLLAMA_MODELS "D:\ollama_model"
  • 为所有用户设置:setx OLLAMA_MODELS "D:\ollama_model" /M

完成设置后,请重启 Ollama 服务和终端。

自定义模型创建后被保存在哪里?
  • 模型文本:/home//.ollama/models/blobs
  • 配置文件:/home//.ollama/models/manifests/registry.ollama.ai/library/qwen0_5b/latest
WebUI 接入

官方提供了多种WebUI接入方法,请您访问 项目Community Integrations 部分查看详情,如您无法打开网址,请尝试修改您的网络配置或者更改网络连接状态。

Linux系统中如何卸载Ollama?

请参见官方文档中有关 Linux系统卸载Ollama 的部分,如您无法打开网址,请尝试修改您的网络配置或者更改网络连接状态。