使用本地AI模型已许久了,对于多个本地AI使用的平台,还是比较喜欢使用LobeChat,简略记录一下环境:
1、本地环境:
地址:https://ollama.com/download
常用模型: https://ollama.com/search
Docker 地址: https://www.docker.com/products/docker-desktop/
2、LobeChat的Docker安装(Win10环境)
本地 11434
端口下的 Ollama 服务,运行以下 Docker 命令行,在本地启动 LobeChat:
docker run -d -p 3210:3210 -e OLLAMA_PROXY_URL=http://host.docker.internal:11434 lobehub/lobe-chat