這篇文章Ivon將解說Text Generation WebUI的安裝及使用方法。
oobabooga開發的「Text Generation WebUI」是支援多種大型語言模型(LLM)的開源軟體,可以在本機與AI對話,等同離線版的小型ChatGPT。
Text Generation WebUI目前支援的大型語言模型有GPT-J-6B、LLaMA、Alpaca、Pygmalion、GTP4All等。還提供自訂角色、對話翻譯的擴充功能。
開發者想仿效AUTOMATIC1111,製作大型語言模型版本的Stable Diffusion WebUI。這款軟體也確實能讓大型語言模型指揮Stable Diffusion繪圖。
0. 硬體需求
本文使用Ubuntu 22.04 LTS作為測試系統。
- GPU VRAM至少6GB
- RAM至少16GB
- 30GB以上硬碟空間
除本機安裝外,開發者也有維護Google Colab筆記本供線上試玩。
1. 安裝前置依賴套件
Nvidia顯示卡安裝Nvidia專有驅動以及CUDA;AMD安裝ROCm。
安裝Anaconda,建立Python 3.10.9虛擬環境
|
|
- 安裝PyTorch
|
|
- 安裝Text Generation WebUI與依賴套件
|
|
2. 下載大型語言模型
Text Generation WebUI支援多種語言模型
英語模型有GPT-J-6B、Pygmalion 6B、GPT-4chan。
2023年以後發布,性能更強的模型有LLaMA、Stanford Alpaca、GPT4 x Alpaca、OpenAssistant。
中文模型有Chinese-LLaMA-Alpaca和ChatGLM 6B。
我使用Pygmalion 6B作示範,這是小型的語言模型,基於開源GPT-J-6B訓練而來,檔案約16GB。
進入Text Generation WeBUI的根目錄資料夾,開啟終端機,使用指令下載Pygmalio的模型和設定檔:
|
|
下載的模型會放到根目錄資料夾下的models
目錄。
3. 啟動Text Generation WebUI
完整引數請參考開發者的Github。
啟動引數可以設定全用CPU跑(--cpu
),或是自動分配任務給CPU和GPU(--auto-devices
)。語言模型即使全用CPU跑,產生對話的速度還是可以接受的,只是講話會像中風一樣的緩慢。
於Text Generation WeBUI的資料夾開啟終端機。
用以下指令啟動WebUI。用
--auto-devices
引數自動分配計算任務給CPU和GPU,gpu-memory
設定最多分配2GB VRAM(防止OOM,數值視顯卡VRAM而定),--model
指定要載入的模型。--chat
以聊天模式啟動。
|
|
- 啟動後,用瀏覽器開啟WebUI的網址:
http://127.0.0.1:7860
,保持終端機開啟。
要關閉此程式,於終端機按Ctrl+C終止。
另外,“DeepSpeed"這個技術可以加速大型語言模型的效能,只支援Linux。
|
|
接著將啟動引數修改如下:
|
|
4. WebUI使用方式
如何下指令依使用的語言模型而定。
以Pygmalion這個模型來說,可以先從簡單的事實回答開始問起
並嘗試讓AI翻譯文本,或者要求寫個小故事。
跟ChatGPT的用法類似,要求AI執行特定任務前,要先下確切的提示詞(prompt)告訴AI要扮演什麼角色,這樣它會更明白要做什麼。