使用LobeChat打造属于自己的聊天机器人界面——可本地运行部署 - 知乎(https://zhuanlan.zhihu.com/p/690458147)
开始使用 LobeChat · LobeChat Docs · LobeHub(https://lobehub.com/zh/docs/usage/start)
在 LobeChat 中使用 Ollama · LobeChat Docs · LobeHub(https://lobehub.com/zh/docs/usage/providers/ollama)
ollama/docs/api.md at main · ollama/ollama(https://github.com/ollama/ollama/blob/main/docs/api.md)
ollama/ollama-js: Ollama JavaScript library(https://github.com/ollama/ollama-js)
Ollama 是一个开源框架,用于在本地机器上便捷地部署和运行大型语言模型。它提供了一套简单的工具和命令,使用户能够轻松地启动和使用各种流行的语言模型。
Ollama 的主要特点包括:
- 简化部署:使用 Docker 容器技术简化了大型语言模型的部署和管理。
- 丰富的模型库:提供了丰富的预训练模型库,涵盖了各种自然语言处理任务。
- 跨平台支持:支持多种操作系统。
- 灵活的自定义:允许用户根据自己的需求调整模型的行为。
Ollama 的主要优点有:
- 离线使用:可以在离线环境下使用语言模型,适用于隐私敏感或网络连接不稳定的情况。
- 降低成本:避免了云服务的高昂费用。
- 提高安全性:用户可以完全控制自己的数据和模型,提高了使用的安全性。
Ollama 可以应用于研究和教育、开发和测试、个人使用等场景。一些示例模型包括 GPT-3、Megatron-Turing NLG 和 WuDao 2.0 等。
如果你想了解更多关于 Ollama 的信息,可以访问其官方网站获取详细资料。
常用命令
# 查看ollama 版本
ollama -v
ollama --version
# ollama 模型默认存放路径:
macOS: ~/.ollama/models
Linux: /usr/share/ollama/.ollama/models
Windows: C:\Users\%username%\.ollama\models
# 修改 ollama 模型存放路径:
# 添加系统环境变量:
OLLAMA_MODELS:E:\ai\ollama\.ollama
OLLAMA_HOST:127.0.0.1
# 重启电脑
## 拉取并执行模型
ollama run qwen:0.5b
ollama run llama2
# 软连接 ollama 模型存放位置
New-Item -ItemType SymbolicLink -Path "C:\Users\Administrator\.ollama" -Target "E:\ai\ollama\.ollama"
发表评论