1.Ollama安装

1.1 安装Ollama

使用如下的命令安装Ollama。

curl -fsSL https://ollama.com/install.sh | sh

安装过程如下:

>>> Installing ollama to /usr/local
[sudo] password for wanna: 
>>> Downloading Linux amd64 bundle
######################################################################## 100.0%
>>> Creating ollama user...
>>> Adding ollama user to render group...
>>> Adding ollama user to video group...
>>> Adding current user to ollama group...
>>> Creating ollama systemd service...
>>> Enabling and starting ollama service...
Created symlink /etc/systemd/system/default.target.wants/ollama.service → /etc/systemd/system/ollama.service.
>>> The Ollama API is now available at 127.0.0.1:11434.
>>> Install complete. Run "ollama" from the command line.
WARNING: No NVIDIA/AMD GPU detected. Ollama will run in CPU-only mode.

1.2 在Ollama安装大模型

在Ollama官网Ollama官网,可以找到可以部署的大模型。

包括qwen,deepseek。

# qwen
ollama run qwen3:8b
# deepseek
ollama run deepseek-r1:7b

2. 安装OpenWebUI

Github地址:OpenWebUI-Github

2.1 使用Python方式安装OpenWebUI

使用如下的命令使用Python方式去安装OpenWebUI。

# 安装pip工具
sudo apt install python3-pip

# 安装虚拟环境工具(如果还没装)
sudo apt install python3-venv

# 创建一个新的虚拟环境
python3 -m venv ~/venvs/openwebui

# 激活虚拟环境
source ~/venvs/openwebui/bin/activate

# 安装 open-webui
pip install open-webui

# 启动open-webui
open-webui serve

可以访问8080端口,进入OpenWebUI的页面。

image-his0.png

进入如下的页面,配置OpenWebUI。

image-ueuu.png

接着,进入如下的页面:

image-ugkk.png

2.2 选择大模型和大模型对话

如果已经安装大模型,可以在这里列举出来所有的可用的大模型列表。

image-c83r.png

开始和大模型进行对话。

image-ju5w.png