Text Generation WebUI安裝教學(Linux/Windows/macOS)
開源AI人工智慧應用
大型語言模型
Self-hosting自架
LLaMA AI
Large Language Model

作者
Ivon Huang
目錄
Text Generation WebUI使用教學 - 系列文章
系列之 3: 本篇文章
本文提供二種安裝方法,建議個人電腦先採用一鍵安裝器;若要部署到伺服器再採用Docker部署。
1. 使用一鍵安裝器安裝 #
開發者在 oobabooga/text-generation-webui Wiki - GitHub提供Linux/Windows/macOS的一鍵安裝器,會自動裝好Python與依賴套件,但是語言模型您得另外下載。
如果您是Linux系統,需要先安裝 Nvidia專有驅動以及CUDA
點選 Github Releases取得一鍵安裝器
main.zip
,您可以放置到任意硬碟位置。將
main.zip
解壓縮,進入text-generation-webui-main
資料夾按照您的作業系統執行指令稿。日後要啟動Text Generation WebUI也是使用此指令稿。
- Linux → 於該資料夾開啟終端機,輸入
./start_linux.sh
- Windows → 於該資料夾對
start_windows.bat
兩下執行。 - macOS → 開啟終端機,切換到text-generation-webui-main所在位置,例如
cd ~/下載/text-generation-webui-main
,接著執行./start_macos.sh
中間會詢問顯示卡晶片,這裡我輸入A選擇Nvidia。
等待依賴套件下載完成,大約10GB
裝完依賴套件後會顯示此訊息
用瀏覽器開啟
http://127.0.0.1:7860
,進入網頁界面。確認網頁界面可以跑出來後,開始下載模型。
2. 透過Docker部署 #
將程式容器化方便部署到伺服器。
Docker最好用Linux系統跑,若要在Windows使用請先裝 WSL2。
在Linux系統安裝Git、 Docker、 Nvidia顯示卡驅動
複製Atinoda的儲存庫
git clone https://github.com/Atinoda/text-generation-webui-docker
cd text-generation-webui-docker
- 使用docker-compose啟動容器服務,等待映像檔拉取完成
docker compose up
- 用瀏覽器開啟
http://127.0.0.1:7860
,進入網頁界面,開始下載模型。
Text Generation WebUI使用教學 - 系列文章
系列之 3: 本篇文章
相關文章
Serge:離線跑類似ChatGPT的聊天AI!支援LLaMA系列大型語言模型
開源AI人工智慧應用
大型語言模型
Self-hosting自架
LLaMA AI
Large Language Model
Docker
Text Generation WebUI:下載大型語言模型(LLM)
開源AI人工智慧應用
大型語言模型
LLaMA AI
Large Language Model
oobabooga的Text Generation WebUI ~ 離線聊天AI介紹
開源AI人工智慧應用
大型語言模型
LLaMA AI
Large Language Model