Categories
70 个页面
AI工具
收录 AI工具 相关文章与实践经验。
大模型 API 为什么按 Token 收费:一文讲清输入、输出和上下文成本
DeepSeek-V4 Preview 发布:1M 上下文、双模型与 API 切换提醒
解决 Ollama 使用 CPU 而不使用 GPU 运算的问题
NVIDIA nvbandwidth 是什么:GPU 带宽测试工具怎么用
K-近邻算法入门:用邻居投票理解机器学习分类
OpenAI 发布 GPT-5.5:更强的智能体编码、知识工作与科研能力
常见向量模型怎么选:OpenAI、BGE、E5、GTE、Jina 对比
什么是图像向量化:从像素图到可搜索可分析的向量表示
AI 名词解释:用大白话讲清楚 Agent、MCP、RAG 和 Token
8G 显存跑 llama.cpp 怎么调:32K 更稳,64K 要开 KV Cache 量化
Claude Code 环境配置四件套:CLAUDE.md、Rules、Memory、Hooks 一次讲清
llama.cpp ollama 显卡性能天梯:CUDA、ROCm、Vulkan
显卡推理速度测试的常用指标具体含义:FA、pp512、tg128、Q4_0 都是什么意思
大模型常见张量类型入门:FP32、FP16、BF16、TF32 与 FP8
16G 显卡也能跑 35B 模型:LM Studio 下 MoE 模型的显存压缩思路
Claude Code 多 Agent 协作:Subagents 和 Agent Teams 怎么选
GPT Image 2 正式发布:从能生成到能商用的跨越
nuwa-skill:把“蒸馏一个人”从灵感变成可执行流程
OpenAI 发布 ChatGPT Images 2.0:图像生成开始走向可直接交付
Karpathy 的 65 行 CLAUDE.md:让 AI 编程少犯三类错误
Claude Code 额度省着用:模型选择、上下文、缓存与 /compact
rembg 项目整理:本地图片背景移除工具
Ollama 多显卡使用笔记:显存叠加、GPU 选择和常见误区
Google App 桌面版体验:把 AI 搜索放进 Windows
Gemma 4 E4B 越狱版和官方普通版有什么区别
Windows 用 WSL + Ollama 本地部署 Hermes Agent,并接入 Telegram
llama-cli -hf 下载 Hugging Face 模型默认保存在哪里
Windows 下 llama-cli 直连 Hugging Face 报 SSL 证书验证失败怎么办
ChatGPT Codex 配额使用情况查询面板:codex-quota的使用方法
在 VS Code 里接入 Claude:从 API 配置到网页生成
Claude 身份验证说明:为什么要验证、需要什么材料、数据如何处理
Codex 额度怎么算:5 小时限额、周限额和 Credit 消耗
RAGFlow 项目整理:开源 RAG 引擎的功能与使用方法
Firecrawl 项目整理:给 AI Agent 用的网页搜索、抓取与交互 API
Playwright CLI 视频录制:录屏、章节标记、Overlay 与调试对比
Playwright CLI 会话管理:多浏览器会话、隔离、持久化与清理
Playwright CLI storage state 用法:保存登录态、读取 Cookies 与本地存储
OpenHarness 是什么:这个开源 Agent Harness 能做什么
Playwright CLI 使用入门:安装、Skills、会话管理与常用命令
Hermes Agent 是什么:简介、优点、快速上手与 OpenClaw 对比
OpenClaw 类脑记忆算法 Dreaming:机器开始做梦,人类却在失眠
llama-quantize 怎么用:GGUF 模型量化入门
llama.cpp 如何从 Hugging Face 获取 GGUF 模型
Codex 额度用量统计
Gemma-4-31B-it 里的 it 是什么意思
Hugging Face 选择 Llama 的 GGUF 模型时,量化怎么选:从 Q8 到 Q2 的实用建议
Windows 局域网访问 Ollama API 设置指南
飞牛 NAS AI 相册用了哪些模型:人脸、物体与语义搜索拆解
Gemma 4 本地调用指南:从一键运行到开发集成
抛弃 MCP?为什么 CLI 正在成为 Agent 的默认工具层
1
2