Run Local Large Language Models
ollama
首先下载ollama, 官网下载地址: https://ollama.com/
安装完成后,在终端输入ollama,可以看到ollama的使用说明。

下载并运行大语言模型,只需要运行ollama run命令即可,例如要下载Google的开源模型Gemma2, 则运行
ollama run gemma2:2b
2b表示模型的参数量。gemma2有2b, 9b, 27b三个版本。参数量越大,模型效果越好,但是运行速度也会变慢,也会消耗更多的内存。
首次运行会自动下载模型,之后再次运行时会直接加载模型,然后就可以和模型进行对话了。

退出时输入/bye。
ollama支持的模型的完整列表可以在这里查看: https://ollama.com/library
查看已经下载的模型列表可以使用命令:
ollama list
更多的使用方法可以查看ollama的Github仓库: https://github.com/ollama/ollama
Enchanted
在命令行终端进行对话不太方便,Enchanted是一个基于ollama的图形界面工具,可以更方便的和模型进行对话,并且可以保存对话记录。
Enchanted可以直接在App Store中下载安装: https://apps.apple.com/us/app/enchanted-llm/id6474268307
安装完成后,打开Enchanted,右上角可以选择ollama安装的本地模型,如下图所示:

OpenCat
另一个支持本地模型的App是OpenCat, 地址: https://opencat.app/
OpenCat不仅支持本地模型,也可以和例如OpenAI的GPT-4等云端模型进行对话(需要API Key)。
Enjoy Reading This Article?
Here are some more articles you might like to read next: