在開始之前,請確保已安裝 Docker 和 Docker Compose。以下是啟動生產環境的步驟:
iris-local-ml 文件夾。docker-compose up
生產環境啟動后,您可以通過以下步驟進入生產環境并進行操作。
當您完成所有操作后,可以通過以下命令關閉生產環境:
docker-compose down
HuggingFace 提供的 Pipeline 是一個強大的工具,能夠自動分析模型文件夾并選擇適合的框架(如 PyTorch、Keras、TensorFlow 或 JAX)。它通過 AutoModel 加載模型,并根據任務類型自動處理輸入、令牌化、特征提取等操作,最終返回可直接使用的解碼結果。
打開 IRIS 的測試窗口。
在請求類型中選擇:
Grongier.PEX.Message
在 classname 中輸入相應的類名。
提供 JSON 格式的參數,例如調用 GPT2 模型的示例:
{
"api_url": "https://api-inference.huggingface.co/models/gpt2",
"payload": "請告訴我們您的詳細信息",
"api_key": "----------------------"
}
點擊“可視跟蹤”以查看詳細日志。
注意:在使用 HuggingFace API 之前,您需要申請 API 密鑰(免費注冊即可)。此外,您可以通過更改 URL 來測試其他 HuggingFace 模型,但可能需要調整 payload 參數。
如果您有自己的模型,可以按照以下步驟配置:
將模型文件放置在路徑 src/model/yourmodelname/ 中。
配置模型參數,例如:
name=yourmodelname
task=文本生成
注意:除 name 和 model_url 外的所有配置都將進入 Pipeline 配置。
使用文件夾中的配置文件創建 Pipeline。
以下是調用自定義模型的示例 JSON 參數:
{
"text_inputs": "不幸的是,結果",
"max_length": 100,
"num_return_sequences": 3
}
完成配置后,點擊 Visual Trace 查看詳細日志。
您可以通過以下步驟下載并配置 HuggingFace 模型:
打開終端,導航到 iris-local-ml 文件夾。
輸入以下命令:
docker-compose up
配置模型參數,例如:
model_url=https://huggingface.co/gpt2
name=gpt2
task=文本生成
以下是其他模型的配置示例:
Camembert-ner:
name=camembert-ner
model_url=https://huggingface.co/Jean-Baptiste/camembert-ner
task=ner
aggregation_strategy=簡單
Bert-base-uncased:
name=bert-base-uncased
model_url=https://huggingface.co/bert-base-uncased
task=填寫掩碼
Detr-resnet-50:
name=detr-resnet-50
model_url=https://huggingface.co/facebook/detr-resnet-50
task=對象檢測
注意:非 name 或 model_url 的配置將進入 Pipeline 配置。
以下是調用不同 HuggingFace 模型的示例 JSON 參數:
GPT2:
{
"text_inputs": "George Washington lived",
"max_length": 30,
"num_return_sequences": 3
}
Camembert-ner:
{
"text_inputs": "喬治華盛頓住在[面具]"
}
Detr-resnet-50:
{
"url": "http://images.cocodataset.org/val2017/000000039769.jpg"
}
完成配置后,點擊 Visual Trace 查看詳細日志。
注意:首次下載模型后,系統會緩存模型文件。如果缺少某些文件,系統會自動重新下載。
通過本文的介紹,您可以輕松使用 HuggingFace API 在 IRIS 數據集上進行機器學習。無論是使用自定義模型還是下載 HuggingFace 提供的預訓練模型,HuggingFace 的 Pipeline 工具都能幫助您快速完成模型的加載、配置和測試。希望本文對您的開發工作有所幫助!
原文鏈接: https://pt.community.intersystems.com/post/machine-learning-no-iris-usando-api-huggingface-eou-modelos-de-ml-no-local