Tags
15 个页面
Ollama
解决 Ollama 使用 CPU 而不使用 GPU 运算的问题
Ollama 多显卡使用笔记:显存叠加、GPU 选择和常见误区
Windows 用 WSL + Ollama 本地部署 Hermes Agent,并接入 Telegram
Windows 局域网访问 Ollama API 设置指南
Gemma 4 本地调用指南:从一键运行到开发集成
Ollama 云模型是什么,怎么用
从 Hugging Face 下载 GGUF 模型并导入 Ollama
Ollama 下载模型 pull 速度很慢的排查和解决办法
OpenClaw 对接本地 Gemma 4:完整配置指南
如何在笔记本电脑上运行 Gemma 4:5 分钟本地部署指南
如何判断 Ollama 模型是否已加载到 GPU
Ollama 模型默认存储位置与迁移方法(防止 C 盘爆满)
在 Linux 上彻底卸载 Ollama(含残留清理)
大模型量化详解:FP16、Q8、Q5、Q4 到 Q2 怎么选?
谷歌 Gemma 4 模型对比:2B/4B/26B/31B 怎么选?