1.Ollama安装
1.1 安装Ollama
使用如下的命令安装Ollama。
curl -fsSL https://ollama.com/install.sh | sh
安装过程如下:
>>> Installing ollama to /usr/local
[sudo] password for wanna:
>>> Downloading Linux amd64 bundle
######################################################################## 100.0%
>>> Creating ollama user...
>>> Adding ollama user to render group...
>>> Adding ollama user to video group...
>>> Adding current user to ollama group...
>>> Creating ollama systemd service...
>>> Enabling and starting ollama service...
Created symlink /etc/systemd/system/default.target.wants/ollama.service → /etc/systemd/system/ollama.service.
>>> The Ollama API is now available at 127.0.0.1:11434.
>>> Install complete. Run "ollama" from the command line.
WARNING: No NVIDIA/AMD GPU detected. Ollama will run in CPU-only mode.
1.2 在Ollama安装大模型
在Ollama官网Ollama官网,可以找到可以部署的大模型。
包括qwen,deepseek。
# qwen
ollama run qwen3:8b
# deepseek
ollama run deepseek-r1:7b
2. 安装OpenWebUI
Github地址:OpenWebUI-Github
2.1 使用Python方式安装OpenWebUI
使用如下的命令使用Python方式去安装OpenWebUI。
# 安装pip工具
sudo apt install python3-pip
# 安装虚拟环境工具(如果还没装)
sudo apt install python3-venv
# 创建一个新的虚拟环境
python3 -m venv ~/venvs/openwebui
# 激活虚拟环境
source ~/venvs/openwebui/bin/activate
# 安装 open-webui
pip install open-webui
# 启动open-webui
open-webui serve
可以访问8080端口,进入OpenWebUI的页面。
进入如下的页面,配置OpenWebUI。
接着,进入如下的页面:
2.2 选择大模型和大模型对话
如果已经安装大模型,可以在这里列举出来所有的可用的大模型列表。
开始和大模型进行对话。
评论