Ollama安装与使用需分五步:一、按系统下载安装包并验证版本;二、访问localhost:11434确认服务运行;三、执行ollama pull qwen2:7b并run启动交互;四、Docker方式部署支持GPU加速;五、配置OLLAMA_HOST实现局域网访问。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望在本地运行大语言模型,但尚未安装Ollama或不清楚如何启动模型交互,则可能是由于缺少基础环境或未正确配置服务端口。以下是完成Ollama安装与基本使用的详细步骤:
一、根据操作系统选择安装方式
Ollama提供跨平台支持,不同系统需采用对应安装路径,确保命令行工具可识别ollama指令。
1、Windows用户访问https://ollama.com/download/OllamaSetup.exe,下载安装包后双击运行,全程点击“下一步”即可完成安装;
2、macOS用户前往https://ollama.com/download/Ollama-darwin.zip下载压缩包,解压后将Ollama拖入Applications文件夹,并在终端中执行sudo xattr -rd com.apple.quarantine /Applications/Ollama.app解除隔离;
3、Linux用户在终端中执行:curl -fsSL https://ollama.com/install.sh | sh,安装完成后启用服务:systemctl enable ollama && systemctl start ollama;
4、所有系统安装完毕后,在终端或PowerShell中输入ollama --version,若返回版本号(如ollama version 0.11.6),表示安装成功。
二、验证服务是否正常运行
Ollama默认以系统服务形式监听本地端口,需确认其HTTP API服务已就绪,方可进行模型拉取与调用。
1、打开浏览器,访问http://localhost:11434;
2、若页面显示"Ollama is running",说明服务已启动;
3、若无法访问,检查防火墙是否拦截11434端口,或在Linux/macOS中运行systemctl status ollama查看服务状态;
4、Windows用户可打开任务管理器,确认后台存在ollama.exe进程。
三、下载并运行首个大语言模型
模型下载通过Ollama内置仓库完成,无需手动处理GGUF文件,命令自动解析依赖并缓存至本地模型目录。
1、在终端中执行ollama pull qwen2:7b,该模型为中文优化、参数量适中的轻量级选项;
2、等待下载完成(约2–3GB,视网络而定),终端显示pull complete;
标签: linux docker windows 操作系统 防火墙 浏览器 app 端口 工具 ssl 平板 mac curl
还木有评论哦,快来抢沙发吧~