OLLAMA共1篇
使用 OLLAMA 本地跑模型下载太慢的设置方法-阿噜噜小栈

使用 OLLAMA 本地跑模型下载太慢的设置方法

为什么选择OLLAMA?ollma 做了不错的封装,底层是 llama-cpp,一键上手运行,适合懒人用户,同时提供 API 服务,可以直接用其它 WEB UI 连接或者 VSCode 这种代码编辑器使用。安装必要环境这里...
咘噜不噜喵的头像-阿噜噜小栈咘噜不噜喵12天前
0190617