Skip to content

Ollama:本地运行模型的利器

DeepSeekOllama

2025-02-14

Ollama 是一款允许在本地运行开源大型语言模型的工具,极大地简化了模型的设置与配置过程,尤其在 GPU 使用方面进行了优化,为开发者提供了高效、私密的模型运行环境。

1. 下载 Ollama

  • Linux 系统

    • 对于基于 Debian 或 Ubuntu 的系统,可使用以下命令下载安装:

      curl https://ollama.ai/install.sh | sh
  • 对于基于 Red Hat 或 CentOS 的系统,安装命令如下:

    curl -fsSL https://ollama.ai/install.sh | sh -s -- -b /usr/local/bin
  • macOS 系统

    • 使用 Homebrew 进行安装,命令为:

      brew install ollama
  • Windows 系统

2. 启动 Ollama

在下载完成后,打开命令行工具,根据不同系统输入相应命令启动 Ollama 服务:

  • Linux 和 macOS

    ollama start
  • Windows:在开始菜单中找到 Ollama,点击 “启动 Ollama”;或者在命令提示符(CMD)或 PowerShell 中输入ollama start。

3. 运行模型

Ollama 支持众多开源模型,你可以根据自己电脑的性能来选择合适的模型。在运行模型前,你可能需要先下载模型。例如,下载llama2:7b模型的命令为:

ollama pull llama2:7b

运行模型时,以运行deepseek-r1:14b模型为例,命令如下:

ollama run deepseek-r1:14b

如果你的电脑配置较低,像llama2:7b这类 7B 版本的模型是不错的选择;若配置较高,如deepseek-r1:14b等更强大的模型能带来更出色的表现 。

在运行模型时,你还可以通过以下命令进行更多操作:

  • 查看已下载的模型列表:

    ollama list
  • 下载新的模型,如llama3:

    ollama pull llama3

并且,Ollama 支持工具调用与多模态输入,遵循异步调用与令牌级流式处理,为模型的使用提供了更多可能性。


由于此是通过命令行终端进行交互,不太友好,接下来进行交互页面部署,具体请查看: 交互页面部署

生活,工作,随笔记录