建议使用 LM Studio,对于 local open source model,它的控制能力更强。ollama 提供了 free 的 cloud model 是优势。
很多 app/tool 都可以实现【本机】运行开源小模型。ollama 是这些工具之一。
ollama 有一些让人琢磨的设计:
使用 ollama,最直接的方式就是使用 gui 直接选择模型。但这种场景并不多见、如果需要使用这种场景,那么完成可以使用 chatgpt 等在线服务。
还有一种方式就是 api 对接 ollama,此时,ollama 提供了下面能力:
ollama serve 是为了开启 14114 端口服务
ollama serve 命令打开,则需要 ps aux | grep ollama + kill -9 xx 来关闭服务。
ollama ps 就没有意义了。ollama pull 下载ollama list 可以看到本地已经配置的所有模型