一篇内存颗粒识别入门:以三星、美光、海力士为例,说明常见打标、编号与判断边界。
使用本地 `git-commit-push-zh` skill 替代 VS Code 的提交消息生成功能,并保持规范的 commit/push 流程。
通过 `ollama ps` 快速判断模型是在 GPU、CPU 还是 CPU/GPU 混合内存中运行,并理解 `PROCESSOR` 列含义。
一篇可直接复用的 sync-post-translations 技能详解:目标、规则、配置代码、调用示例与质量保障清单。
整理 Ollama 在 Windows、macOS、Linux 的默认模型目录,并给出 Windows 下迁移到非系统盘的可执行步骤,避免 C 盘空间被占满。
一篇可直接执行的指南:在 Linux 上停止并移除 Ollama 服务、二进制与模型文件,并清理系统用户与组。
系统讲清大模型量化的核心概念、常见版本差异与按显存选型方法,帮你在效果、速度和资源成本之间找到最佳平衡。
系统对比 Gemma 4 的 2B、4B、26B、31B 四个版本,给出性能定位、显存门槛、落地场景与选型建议。
基于 Anthropic 的 skills 中 docx 目录里的 SKILL.md 与配套脚本,梳理这个 docx skill 的功能边界、代码组成、典型工作流、使用方式以及容易踩坑的地方。
整理飞牛 NAS 远程访问的两种方案:公网 IP 直连与 FN Connect,包含配置要点、优缺点和使用建议。