如果你在 Windows 下运行下面这条命令:
|
|
并看到类似报错:
|
|
通常不是 CUDA 或 llama.cpp 本身有问题,而是程序在当前环境里没有正确拿到系统证书链,导致 HTTPS 校验失败。
从报错来看,ggml-rpc.dll 和 ggml-cpu-alderlake.dll 都已经正常加载,说明运行环境本身大体可用,问题主要集中在模型下载阶段。
最省事的办法:先手动下载模型
如果你只是想尽快跑起来,本地手动下载通常最稳。
- 打开对应的 Hugging Face 仓库页面。
- 在
Files and versions里下载需要的.gguf文件。 - 下载完成后,直接用本地文件路径运行:
|
|
这样可以绕过 -hf 下载阶段的 SSL 校验问题,适合先验证模型能不能正常推理。
如果还想继续用 -hf 自动下载
可以手动指定证书文件路径,让程序在当前会话里找到可用的 CA 证书。
cacert.pem 可以从 curl 官方维护的 CA Extract 页面获取:
如果用浏览器下载,打开上面的直接下载地址后保存为 cacert.pem 即可。也可以在 PowerShell 里下载到固定目录,例如:
|
|
下载完成后,在命令行里设置:
|
|
再重新执行原命令:
|
|
如果问题确实来自证书链,这种方式通常能直接解决。