這或許是一個對你有用的開源項目,mall項目是一套基于 SpringBoot3 + Vue 的電商系統(Github標星60K),后端支持多模塊和 2024最新微服務架構 ,采用Docker和K8S部署。包括前臺商城項目和后臺管理系統,能支持完整的訂單流程!涵蓋商品、訂單、購物車、權限、優惠券、會員、支付等功能!

項目演示:

使用

接下來我們就來講解下使用Spring AI來調用DeepSeek服務。

<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-openai-spring-boot-starter</artifactId>
<version>1.0.0-M6</version>
</dependency>
spring:
ai:
openai:
# 調用AI接口時表明身份的API KEY
api-key: <YOUR_API_KEY>
# 調用AI接口時的基礎路徑,配置的是阿里云百煉的基礎路徑
base-url: https://dashscope.aliyuncs.com/compatible-mode
chat:
options:
# 調用的模型,DeepSeek的話可以選擇deepseek-r1或deepseek-v3
model: deepseek-r1
# 用來控制文本生成的隨機性(創造力),值越小越嚴謹
temperature: 0.8
/**
* @auther macrozheng
* @description 對接DeepSeek后生成回答的Controller
* @date 2025/2/21
* @github https://github.com/macrozheng
*/
@RestController
public class DeepSeekController {

private final OpenAiChatModel chatModel;

@Autowired
public DeepSeekController(OpenAiChatModel chatModel) {
this.chatModel = chatModel;
}

/**
* 根據消息直接輸出回答
*/
@GetMapping("/ai/chat")
public Map chat(@RequestParam(value = "message") String message) {
return Map.of("generation", this.chatModel.call(message));
}

/**
* 根據消息采用流式輸出,輸出回答
*/
@GetMapping(value = "/ai/chatFlux", produces = MediaType.TEXT_EVENT_STREAM_VALUE + "; charset=UTF-8")
public Flux<ChatResponse> chatFlux(@RequestParam(value = "message") String message) {
Prompt prompt = new Prompt(new UserMessage(message));
return this.chatModel.stream(prompt);
}

}

測試

然后啟動項目,這里我們使用Postman來測試下接口

總結

今天給大家介紹了下Spring AI和DeepSeek的集成方法,還是比較簡單的。對于回答的輸出,由于直接輸出響應比較慢,我們可以采用流式輸出,通過不斷拼接回答來響應比較好。

本文轉載自@公眾號macrozheng

上一篇:

都2025年了,你還在用Jenkins?趕快看看這些替代方案吧!

下一篇:

KuCoin API – 入門指南
#你可能也喜歡這些API文章!

我們有何不同?

API服務商零注冊

多API并行試用

數據驅動選型,提升決策效率

查看全部API→
??

熱門場景實測,選對API

#AI文本生成大模型API

對比大模型API的內容創意新穎性、情感共鳴力、商業轉化潛力

25個渠道
一鍵對比試用API 限時免費

#AI深度推理大模型API

對比大模型API的邏輯推理準確性、分析深度、可視化建議合理性

10個渠道
一鍵對比試用API 限時免費