LobeChat与Ollama的集成使用

使用本地AI模型已许久了,对于多个本地AI使用的平台,还是比较喜欢使用LobeChat,简略记录一下环境:

1、本地环境:

    地址:https://ollama.com/download

    常用模型: https://ollama.com/search

    Docker 地址: https://www.docker.com/products/docker-desktop/

2、LobeChat的Docker安装(Win10环境)

      本地 11434 端口下的 Ollama 服务,运行以下 Docker 命令行,在本地启动 LobeChat:

docker run -d -p 3210:3210 -e OLLAMA_PROXY_URL=http://host.docker.internal:11434 lobehub/lobe-chat