Ollama开源的大型语言模型LLM平台

  ollama

Ollama

Ollama 是一个开源的大型语言模型(LLM)平台,旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互。

macOS

Download

Windows

Download

Linux

shell 复制代码
curl -fsSL https://ollama.com/install.sh | sh

手动安装说明

Docker

官方 Ollama Docker 镜像 ollama/ollama 可在 Docker Hub 上获取。

Libraries

社区

Quickstart

To run and chat with Gemma 3:

shell 复制代码
ollama run gemma3

Model library

Ollama 支持 ollama.com/library 上提供的一系列模型。以下是一些可供下载的示例模型:

Model Parameters Size Download
Gemma 3 1B 815MB ollama run gemma3:1b
Gemma 3 4B 3.3GB ollama run gemma3
Gemma 3 12B 8.1GB ollama run gemma3:12b
Gemma 3 27B 17GB ollama run gemma3:27b
QwQ 32B 20GB ollama run qwq
DeepSeek-R1 7B 4.7GB ollama run deepseek-r1
DeepSeek-R1 671B 404GB ollama run deepseek-r1:671b
Llama 4 109B 67GB ollama run llama4:scout
Llama 4 400B 245GB ollama run llama4:maverick
Llama 3.3 70B 43GB ollama run llama3.3
Llama 3.2 3B 2.0GB ollama run llama3.2
Llama 3.2 1B 1.3GB ollama run llama3.2:1b
Llama 3.2 Vision 11B 7.9GB ollama run llama3.2-vision
Llama 3.2 Vision 90B 55GB ollama run llama3.2-vision:90b
Llama 3.1 8B 4.7GB ollama run llama3.1
Llama 3.1 405B 231GB ollama run llama3.1:405b
Phi 4 14B 9.1GB ollama run phi4
Phi 4 Mini 3.8B 2.5GB ollama run phi4-mini
Mistral 7B 4.1GB ollama run mistral
Moondream 2 1.4B 829MB ollama run moondream
Neural Chat 7B 4.1GB ollama run neural-chat
Starling 7B 4.1GB ollama run starling-lm
Code Llama 7B 3.8GB ollama run codellama
Llama 2 Uncensored 7B 3.8GB ollama run llama2-uncensored
LLaVA 7B 4.5GB ollama run llava
Granite-3.3 8B 4.9GB ollama run granite3.3

[!NOTE]
您应该至少有 8 GB 的 RAM 来运行 7B 型号,16 GB 来运行 13B 型号,以及 32 GB 来运行 33B 型号。

自定义模型

Import from GGUF

Ollama 支持在 Modelfile 中导入 GGUF 模型:

  1. Create a file named Modelfile, with a FROM instruction with the local filepath to the model you want to import.

    复制代码
    FROM ./vicuna-33b.Q4_0.gguf
  2. Create the model in Ollama

    shell 复制代码
    ollama create example -f Modelfile
  3. Run the model

    shell 复制代码
    ollama run example

Import from Safetensors

请参阅导入模型的指南以了解更多信息。

Customize a prompt

您可以使用提示自定义 Ollama 库中的模型。例如,要自定义 llama3.2 模型:

shell 复制代码
ollama pull llama3.2

Create a Modelfile:

复制代码
FROM llama3.2

# set the temperature to 1 [higher is more creative, lower is more coherent]
PARAMETER temperature 1

# set the system message
SYSTEM """
You are Mario from Super Mario Bros. Answer as Mario, the assistant, only.
"""

Next, create and run the model:

复制代码
ollama create mario -f ./Modelfile
ollama run mario
>>> hi
Hello! It's your friend Mario.

有关使用 Modelfile 的更多信息,请参阅 Modelfile 文档。

CLI Reference

Create a model

ollama create 用于从 Modelfile 创建模型。

shell 复制代码
ollama create mymodel -f ./Modelfile

Pull a model

shell 复制代码
ollama pull llama3.2

此命令也可用于更新本地模型。仅提取差异部分。

Remove a model

shell 复制代码
ollama rm llama3.2

Copy a model

shell 复制代码
ollama cp llama3.2 my-model

Multiline input

For multiline input, you can wrap text with """:

复制代码
>>> """Hello,
... world!
... """
I'm a basic program that prints the famous "Hello, world!" message to the console.

Multimodal models

复制代码
ollama run llava "What's in this image? /Users/jmorgan/Desktop/smile.png"

输出:图像上有一张黄色的笑脸,这可能是图片的中心焦点。

Pass the prompt as an argument

shell 复制代码
ollama run llama3.2 "Summarize this file: $(cat README.md)"

输出:Ollama 是一个轻量级、可扩展的框架,用于在本地机器上构建和运行语言模型。它提供了用于创建、运行和管理模型的简单 API,以及一个可在各种应用程序中轻松使用的预构建模型库。

Show model information

shell 复制代码
ollama show llama3.2

List models on your computer

shell 复制代码
ollama list

List which models are currently loaded

shell 复制代码
ollama ps

Stop a model which is currently running

shell 复制代码
ollama stop llama3.2

Start Ollama

当您想要在不运行桌面应用程序的情况下启动 ollama 时,使用“ollama serve”。

Building

See the developer guide

Running local builds

Next, start the server:

shell 复制代码
./ollama serve

Finally, in a separate shell, run a model:

shell 复制代码
./ollama run llama3.2

REST API

Ollama 有一个用于运行和管理模型的 REST API。

Generate a response

shell 复制代码
curl http://localhost:11434/api/generate -d '{
  "model": "llama3.2",
  "prompt":"Why is the sky blue?"
}'

Chat with a model

shell 复制代码
curl http://localhost:11434/api/chat -d '{
  "model": "llama3.2",
  "messages": [
    { "role": "user", "content": "why is the sky blue?" }
  ]
}'

关于项目

Ollama 是一个开源的大型语言模型(LLM)平台,旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互。Ollama 提供了一个简单的方式来加载和使用各种预训练的语言模型,支持文本生成、翻译、代码编写、问答等多种自然语言处理任务。
MIT
Golang
153,854
13359
874
2023-06-27
2025-10-10

增长趋势 - stars