我们知道Ollama是开源大模型框架。本文,我们就来部署一个自己的本地大模型+精简的UI访问框架,实现本地的GPT体系。
先来看看最终的产品界面
安装Ollama
目前直接访问官网记得得到安装方式。如下图中,每个平台都有。
以前传统的方式,使用curl 的命令获取如下图。
- Console run curl -fsSL https://ollama.com/install.sh | sh
安装好后查看
打开浏览器,访问
- http://localhost:11434/ , 看到页面内容就算成功了。
- 或者 ,使用命令 ollama serve 看控制台输出,如下图
安装大模型
上面我们安装的是一个Ollama的框架,还是需要下载大模型:
比如执行: ollama run qwen2:7b-instruct-q4_0
或者有时候必须要用到最新的,很奇怪 ollama run llama2
这里可以下载所有的模型 https://github.com/ollama/ollama
Ollama模型下载后的位置
macOS: ~/.ollama/models
Linux: /usr/share/ollama/.ollama/models
Windows: C:Users<username>.ollamamodels
Ollama默认只允许127.0.0.1:11434访问,我们可以修改配置,让所有IP都可以访问
修改文件/etc/systemd/system/ollama.service , 在[Service]这块最下面新增
Environment=”OLLAMA_HOST=0.0.0.0″
保存,重启Ollama服务即可(Ollama Serve)
如何有Web界面的访问方式:
- https://github.com/open-webui/open-webui 这是完整的库,比较新。但是安装使用相对复杂
- https://github.com/ollama-webui/ollama-webui-lite 这个已经停止更新,但是非常精简,适合个人使用。本人尝试用这个。
安装方式:
本地获取 https://github.com/ollama-webui/ollama-webui-lite 库之后。在目录下执行npm ci 即可。
完成后执行npm run dev
一切成功输入内容如下:
打开浏览器,输入上述中的地址你就可以看到内容:比如 http://localhost:3000
是不是很像你的GPT页面了?
Settings中还有很多本地的设置和简易的功能就留给大家挖掘了。
有任何问题,请二维码添加技术交流群。探讨更多AIGC能力
海量AI知识文库,大家一起飞。 技术交流群
AIGC训练营 公众号
RA/SD 衍生者AI训练营。发布者:稻草人,转载请注明出处:https://www.shxcj.com/archives/8697