OpenWebUI Ollama
<p>Open WebUI
Docker 🐳 快速入门
如果 Ollama 在您的计算机上,请使用以下命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main</p>
<p>与 Ollama 捆绑的 Open WebUI</p>
<p>此安装方法使用将 Open WebUI 与 Ollama 捆绑在一起的单个容器映像,从而允许通过单个命令简化设置。根据您的硬件设置选择合适的命令:</p>
<p>支持 GPU: 通过运行以下命令来利用 GPU 资源:</p>
<p>docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama</p>
<p>仅适用于 CPU: 如果您未使用 GPU,请改用以下命令:</p>
<p>docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama</p>
<p>这两个命令都有助于 Open WebUI 和 Ollama 的内置轻松安装,确保您可以快速启动并运行所有内容。</p>
<p>安装后,您可以访问 Open WebUI at <a href="http://localhost:3000。享受">http://localhost:3000。享受</a>!😄</p>