Ollama本地部署指南
在本地快速部署大语言模型
作者:AI搭子•发布时间:2026/5/10
Ollama本地部署指南
Ollama是本地运行大语言模型的工具。
安装
macOS: brew install ollama Linux: curl安装脚本
使用
ollama pull llama3 ollama run llama3
支持模型
LLaMA 3, Mistral, Gemma, Qwen
在本地快速部署大语言模型
Ollama是本地运行大语言模型的工具。
macOS: brew install ollama Linux: curl安装脚本
ollama pull llama3 ollama run llama3
LLaMA 3, Mistral, Gemma, Qwen