
Python調用Google Bard API 完整指南
立即體驗
,然后點擊右上角的鑰匙
按鈕就可以獲取到對應的API KEY了,首次使用需要自行創建API KEY。這或許是一個對你有用的開源項目,mall項目是一套基于 SpringBoot3 + Vue 的電商系統(Github標星60K),后端支持多模塊和 2024最新微服務架構 ,采用Docker和K8S部署。包括前臺商城項目和后臺管理系統,能支持完整的訂單流程!涵蓋商品、訂單、購物車、權限、優惠券、會員、支付等功能!
項目演示:
接下來我們就來講解下使用Spring AI來調用DeepSeek服務。
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-openai-spring-boot-starter</artifactId>
<version>1.0.0-M6</version>
</dependency>
spring:
ai:
openai:
# 調用AI接口時表明身份的API KEY
api-key: <YOUR_API_KEY>
# 調用AI接口時的基礎路徑,配置的是阿里云百煉的基礎路徑
base-url: https://dashscope.aliyuncs.com/compatible-mode
chat:
options:
# 調用的模型,DeepSeek的話可以選擇deepseek-r1或deepseek-v3
model: deepseek-r1
# 用來控制文本生成的隨機性(創造力),值越小越嚴謹
temperature: 0.8
/**
* @auther macrozheng
* @description 對接DeepSeek后生成回答的Controller
* @date 2025/2/21
* @github https://github.com/macrozheng
*/
@RestController
public class DeepSeekController {
private final OpenAiChatModel chatModel;
@Autowired
public DeepSeekController(OpenAiChatModel chatModel) {
this.chatModel = chatModel;
}
/**
* 根據消息直接輸出回答
*/
@GetMapping("/ai/chat")
public Map chat(@RequestParam(value = "message") String message) {
return Map.of("generation", this.chatModel.call(message));
}
/**
* 根據消息采用流式輸出,輸出回答
*/
@GetMapping(value = "/ai/chatFlux", produces = MediaType.TEXT_EVENT_STREAM_VALUE + "; charset=UTF-8")
public Flux<ChatResponse> chatFlux(@RequestParam(value = "message") String message) {
Prompt prompt = new Prompt(new UserMessage(message));
return this.chatModel.stream(prompt);
}
}
然后啟動項目,這里我們使用Postman來測試下接口
result.output.text
這個屬性里面,我們可以通過接口中的text屬性的拼接來獲得完整的回答。今天給大家介紹了下Spring AI和DeepSeek的集成方法,還是比較簡單的。對于回答的輸出,由于直接輸出響應比較慢,我們可以采用流式輸出,通過不斷拼接回答來響應比較好。
本文轉載自@公眾號macrozheng