105人参与 • 2024-08-06 • 交互
ollama是一个创新的平台,它允许用户在本地启动并运行大型语言模型。它提供了一个简单易用的内容生成接口,类似于openai,但无需开发经验即可直接与模型进行交互。ollama支持热切换模型,为用户提供了灵活性和多样性。
要安装ollama,请访问官方网站的下载页面:ollama下载页面。在这里,你可以根据你的操作系统选择合适的版本进行下载,目前,ollama支持macos 11 big sur或更高版本。
对于macos用户,可以直接点击下载链接获取ollama的压缩包:download for macos。
对于windows用户,可以参照上述链接中的步骤进行安装,安装过程中,你可以通过注册来接收新更新的通知。
安装完成后,你可以通过命令行查看ollama的可用命令。例如,在windows的powershell中,输入ollama
即可查看帮助信息和可用命令。
ps c:\users\admin> ollama
usage:
ollama [flags]
ollama [command]
available commands:
serve start ollama
create create a model from a modelfile
show show information for a model
run run a model
pull pull a model from a registry
push push a model to a registry
list list models
cp copy a model
rm remove a model
help help about any command
flags:
-h, --help help for ollama
-v, --version show version information
use "ollama [command] --help" for more information about a command.
ps c:\users\admin>
ollama的模型库提供了多种大型语言模型供用户选择。你可以通过访问ollama模型库来找到并下载你需要的模型。
安装模型后,使用ollama list
命令可以查看已安装的模型列表。
ps c:\users\admin> ollama list
name id size modified
gemma:2b b50d6c999e59 1.7 gb about an hour ago
llama2:latest 78e26419b446 3.8 gb 9 hours ago
qwen:latest d53d04290064 2.3 gb 8 hours ago
ps c:\users\admin>
通过ollama run
命令,你可以运行特定的模型。例如,ollama run qwen
将启动qwen模型。
openwebui是一个可扩展、功能丰富且用户友好的自托管webui,它支持完全离线操作,并兼容ollama和openai的api。这为用户提供了一个可视化的界面,使得与大型语言模型的交互更加直观和便捷。
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
ollama_base_url
为服务器的 url:docker run -d -p 3000:8080 -e ollama_base_url=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
这个时候会发现【select a model】可以选择我们刚刚下载好的模型:
这样我们就有了一个类似gpt的可视化界面
并且他还可以一次性加入多个模型,一起对话对比使用:
可以自行按要求创建,也可去官网社区快速设置其他用户创建好的modelfiles。
您想发表意见!!点此发布评论
版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。
发表评论