Ollama本地部署指南

在本地快速部署大语言模型

作者:AI搭子发布时间:2026/5/10

Ollama本地部署指南

Ollama是本地运行大语言模型的工具。

安装

macOS: brew install ollama Linux: curl安装脚本

使用

ollama pull llama3 ollama run llama3

支持模型

LLaMA 3, Mistral, Gemma, Qwen

相关文章