快轉到主要內容

Text Generation WebUI安裝教學(Linux/Windows/macOS)

開源AI人工智慧應用 大型語言模型 Self-hosting自架 LLaMA AI Large Language Model
✍ 切換正體/簡體字
Ivon Huang
作者
Ivon Huang
目錄
Text Generation WebUI使用教學 - 系列文章
系列之 3: 本篇文章

本文提供二種安裝方法,建議個人電腦先採用一鍵安裝器;若要部署到伺服器再採用Docker部署。

1. 使用一鍵安裝器安裝 #

開發者在 oobabooga/text-generation-webui Wiki - GitHub提供Linux/Windows/macOS的一鍵安裝器,會自動裝好Python與依賴套件,但是語言模型您得另外下載。

  1. 如果您是Linux系統,需要先安裝 Nvidia專有驅動以及CUDA

  2. 點選 Github Releases取得一鍵安裝器main.zip,您可以放置到任意硬碟位置。

  3. main.zip解壓縮,進入text-generation-webui-main資料夾

  4. 按照您的作業系統執行指令稿。日後要啟動Text Generation WebUI也是使用此指令稿。

  • Linux → 於該資料夾開啟終端機,輸入./start_linux.sh
  • Windows → 於該資料夾對start_windows.bat兩下執行。
  • macOS → 開啟終端機,切換到text-generation-webui-main所在位置,例如cd ~/下載/text-generation-webui-main,接著執行./start_macos.sh
  1. 中間會詢問顯示卡晶片,這裡我輸入A選擇Nvidia。

  2. 等待依賴套件下載完成,大約10GB

  3. 裝完依賴套件後會顯示此訊息

  4. 用瀏覽器開啟http://127.0.0.1:7860,進入網頁界面。確認網頁界面可以跑出來後,開始下載模型。

2. 透過Docker部署 #

將程式容器化方便部署到伺服器。

Docker最好用Linux系統跑,若要在Windows使用請先裝 WSL2

  1. 在Linux系統安裝Git、 Docker Nvidia顯示卡驅動

  2. 複製Atinoda的儲存庫

git clone https://github.com/Atinoda/text-generation-webui-docker
cd text-generation-webui-docker
  1. 使用docker-compose啟動容器服務,等待映像檔拉取完成
docker compose up
  1. 用瀏覽器開啟http://127.0.0.1:7860,進入網頁界面,開始下載模型。

Text Generation WebUI使用教學 - 系列文章
系列之 3: 本篇文章

相關文章

Serge:離線跑類似ChatGPT的聊天AI!支援LLaMA系列大型語言模型
開源AI人工智慧應用 大型語言模型 Self-hosting自架 LLaMA AI Large Language Model Docker
Text Generation WebUI:下載大型語言模型(LLM)
開源AI人工智慧應用 大型語言模型 LLaMA AI Large Language Model
oobabooga的Text Generation WebUI ~ 離線聊天AI介紹
開源AI人工智慧應用 大型語言模型 LLaMA AI Large Language Model

留言板

此處提供二種留言板。點選按鈕,選擇您覺得方便的留言板。要討論程式碼請用Giscus,匿名討論請用Disqus。

這是Giscus留言板,需要登入Github帳號才能留言。支援markdown語法,方便您張貼程式碼,若要上傳圖片請貼Imgur連結。您的留言會在Github Discussions向所有人公開。

這是Disqus留言板,您可能會看到Disqus強制投放的廣告。無論有無登入皆可留言。此處留言只有本站參與者看得到。若您選擇以訪客身份匿名留言,就不會收到後續回覆通知。