
深入理解 ASP.NET Core Web API:從哲學到一對多模型(Models & 1:N 關系)
訪問您的帳戶后,您應該會看到一個儀表板(見圖),現(xiàn)在:
這些 GPU 節(jié)點是由 NodeShift 打造的 GPU 虛擬機。這些節(jié)點高度可定制,讓您可以根據(jù)需求控制從 H100 到 A100 的 GPU、CPU、RAM 和存儲的不同環(huán)境配置。
2. 接下來,您需要選擇一種身份驗證方法。有兩種方法可用:密碼和 SSH 密鑰。我們建議使用 SSH 密鑰,因為它更安全。要創(chuàng)建密鑰,請參閱我們的官方文檔。
最后一步是為虛擬機選擇一個映像,在我們的例子中是Nvidia Cuda。
就這樣!現(xiàn)在您可以部署節(jié)點了。完成配置摘要,如果看起來不錯,請點擊“創(chuàng)建”來部署節(jié)點。
復制詳細信息時,請按照以下步驟通過 SSH 連接到正在運行的 GPU VM:
輸出:
接下來,如果要檢查 GPU 詳細信息,請在終端中運行以下命令:
!nvidia-smi
conda create -n higgs python=3.11 -y && conda activate higgs
輸出:
2.進入環(huán)境后,克隆官方存儲庫。
git clone https://github.com/boson-ai/higgs-audio.git
cd higgs-audio
輸出:
3.安裝所需的依賴項。
pip install -r requirements.txt
pip install -e .
4.安裝PyTorch、transformers和其他python包。
pip install torch torchvision torchaudio
pip install einops timm pillow
pip install transformers==4.47.0 git+https://github.com/huggingface/accelerate
pip install git+https://github.com/huggingface/diffusers
pip install huggingface_hub
pip install sentencepiece bitsandbytes protobuf decord numpy ffmpeg
5.安裝并運行jupyter Notebook。
conda install -c conda-forge --override-channels notebook -y
conda install -c conda-forge --override-channels ipywidgets -y
jupyter notebook --allow-root
6. 如果您在遠程機器上(例如,NodeShift GPU),則需要執(zhí)行 SSH 端口轉(zhuǎn)發(fā)才能在本地瀏覽器上訪問 jupyter 筆記本會話。
替換后在本地終端運行以下命令:
<YOUR_SERVER_PORT>
使用分配給遠程服務器的 PORT(對于 NodeShift 服務器 – 您可以在儀表板上已部署的 GPU 詳細信息中找到它)。
<PATH_TO_SSH_KEY>
使用存儲 SSH 密鑰的位置的路徑。
<YOUR_SERVER_IP>
使用遠程服務器的 IP 地址。
ssh -L 8888:localhost:8888 -p <YOUR_SERVER_PORT> -i <PATH_TO_SSH_KEY> root@<YOUR_SERVER_IP>
輸出:
復制您在遠程服務器中收到的 URL:
并將其粘貼到本地瀏覽器上以訪問 Jupyter Notebook 會話。
2.下載模型檢查點。
from boson_multimodal.serve.serve_engine import HiggsAudioServeEngine, HiggsAudioResponse
from boson_multimodal.data_types import ChatMLSample, Message, AudioContent
import torch
import torchaudio
import time
import click
MODEL_PATH = "bosonai/higgs-audio-v2-generation-3B-base"
AUDIO_TOKENIZER_PATH = "bosonai/higgs-audio-v2-tokenizer"
system_prompt = (
"Generate audio following instruction.\n\n<|scene_desc_start|>\nAudio is recorded from a quiet room.\n<|scene_desc_end|>"
)
messages = [
Message(
role="system",
content=system_prompt,
),
Message(
role="user",
content="The sun rises in the east and sets in the west. This simple fact has been observed by humans for thousands of years.",
),
]
device = "cuda" if torch.cuda.is_available() else "cpu"
serve_engine = HiggsAudioServeEngine(MODEL_PATH, AUDIO_TOKENIZER_PATH, device=device)
output: HiggsAudioResponse = serve_engine.generate(
chat_ml_sample=ChatMLSample(messages=messages),
max_new_tokens=1024,
temperature=0.3,
top_p=0.95,
top_k=50,
stop_strings=["<|end_of_text|>", "<|eot_id|>"],
)
torchaudio.save(f"output.wav", torch.from_numpy(output.audio)[None, :], output.sampling_rate)
輸出:
Higgs Audio v2 展示了富有表現(xiàn)力的音頻生成領域的前沿技術,從零樣本多語言 TTS 到逼真的多說話人對話,所有這些都得益于 DualFFN 架構、統(tǒng)一音頻分詞器以及基于 1000 萬小時多樣化音頻的訓練等創(chuàng)新技術。本地安裝即可為開發(fā)者、研究人員和創(chuàng)意人員開啟這些高級功能的大門。在 NodeShift Cloud 的支持下,部署過程更加無縫,提供可擴展的計算能力、快速的存儲和集成工具,從而加速實驗和生產(chǎn)工作流程。
深入理解 ASP.NET Core Web API:從哲學到一對多模型(Models & 1:N 關系)
NAS設備API接口全解析:遠程文件管理、用戶權限與自動備份
生成式AI API架構最佳實踐:構建高性能、安全可控的智能服務
零基礎入門 Alexa API 開發(fā):環(huán)境配置、技能創(chuàng)建與示例講解
.Net中如何創(chuàng)建RESTful API
構建基于Claude MCP的天氣查詢智能體 | 實戰(zhàn)落地示例
API 認證:JWT、OAuth 與 API KEY對比
零代碼打造高效 AI Agents:初學者快速上手指南
如何使用rest api發(fā)送電子郵件