0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

DeepSeek4J开源:高效解决DeepSeek R1集成挑战

OSC开源社区 来源:OSC开源社区 2025-02-12 11:33 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

随着 DeepSeek R1 模型的发布,其强大的思维链能力让开发者为之兴奋。然而,Spring AI 等主流框架对其支持不足,导致很多开发者无法充分发挥模型潜力。本文将为您带来一个完美的解决方案 - deepseek4j。

一、为什么需要 deepseek4j?

1.1 现有框架的局限性

思维链内容丢失:R1 最核心的推理过程完全被忽略

响应模式不兼容:无法处理"思考在前、结论在后"的输出模式

参数限制temperature、top_p 等关键参数设置失效

流式处理不完善:用户体验欠佳

虽然笔者上篇博客介绍了如何使用 WebFlux 直接调用 DeepSeek API,但这种方式存在一些问题:开发成本高:直接调用 API 或改造现有框架需要处理大量细节,包括请求构建、响应解析、错误处理等。

一不做二不休,为了彻底解决这些问题,笔者基于 OpenAI4J[1] 项目的优秀架构,打造了一个专门面向 DeepSeek 的开箱即用方案 DeepSeek4J[2]

增强支持 DeepSeek 独有的思维链和账单特性

增加 Project Reactor 的全面响应式支持

提供集成 Spring Boot Starter,提供自动配置

二、核心特性

完整保留思维链能力、账单

响应式流式处理

简单优雅的 API 设计

开箱即用的 Spring Boot 集成,同时支持2.x / 3.x

内置调试页面

详细的请求响应日志

灵活的代理配置

响应式编程支持

三、快速开始

3.1 添加依赖


io.github.pig-mesh.ai
deepseek-spring-boot-starter
1.1.0

3.2 配置参数

deepseek:
api-key:your-api-key-here
base-url:https://api.deepseek.com/v1#可选,默认为官方API地址,支持火山、gitee、硅基流动

3.3 基础使用

@Autowired
privateDeepSeekClientdeepSeekClient;

//sse流式返回
@GetMapping(value="/chat",produces=MediaType.TEXT_EVENT_STREAM_VALUE)
publicFluxchat(Stringprompt){
returndeepSeekClient.chatFluxCompletion(prompt);
}

3.4 进阶配置

publicFluxchat(Stringprompt){
ChatCompletionRequestrequest=ChatCompletionRequest.builder()
//模型选择,支持DEEPSEEK_CHAT、DEEPSEEK_REASONER等
.model(ChatCompletionModel.DEEPSEEK_CHAT)
//添加用户消息
.addUserMessage(prompt)
//添加助手消息,用于多轮对话
.addAssistantMessage("上轮结果")
//添加系统消息,用于设置角色和行为
.addSystemMessage("你是一个专业的助手")
//设置最大生成token数,默认2048
.maxTokens(1000)
//设置响应格式,支持JSON结构化输出
.responseFormat()
.tools()//functioncalling
.build();

returndeepSeekClient.chatFluxCompletion(request);
}

3.5 开发者专享彩蛋:

内置可视化调试页面,双击 sse.html 即可开启实时对话监控,完整呈现思维链演进过程!页面提供了完整的前端实现代码,可作为集成参考。

c563214a-e873-11ef-9310-92fbcf53809c.png

点击「阅读原文」直达项目仓库,开启你的智能开发新纪元!

参考资料

DeepSeek4J:https://github.com/pig-mesh/deepseek4j

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    90

    文章

    38188

    浏览量

    296996
  • DeepSeek
    +关注

    关注

    2

    文章

    824

    浏览量

    2828

原文标题:deepseek4j已开源——完美解决DeepSeek R1集成难题

文章出处:【微信号:OSC开源社区,微信公众号:OSC开源社区】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    如何在NVIDIA Blackwell GPU上优化DeepSeek R1吞吐量

    开源 DeepSeek R1 模型的创新架构包含多头潜在注意力机制 (MLA) 和大型稀疏混合专家模型 (MoE),其显著提升了大语言模型 (LLM) 的推理效率。
    的头像 发表于 08-12 15:19 3837次阅读
    如何在NVIDIA Blackwell GPU上优化<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>吞吐量

    速看!EASY-EAI教你离线部署Deepseek R1大模型

    和自然语言推理等复杂任务。作为国产AI大数据模型的代表,凭借其卓越的推理能力和高效的文本生成技术,在全球人工智能领域引发广泛关注。本文主要说明DeepSeek-R1
    的头像 发表于 07-25 15:22 1044次阅读
    速看!EASY-EAI教你离线部署<b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大模型

    DeepSeek开源新版R1 媲美OpenAI o3

    DeepSeek“悄悄”地又放了一个大招,DeepSeek开源R1最新0528版本。尽管DeepSeek目前还没有对该版本进行任何说明,但
    的头像 发表于 05-29 11:23 742次阅读

    ORinNano离线部署Deepseek R1大模型教程

    ORinNano离线部署Deepseek R1大模型教程
    的头像 发表于 04-10 15:32 1061次阅读
    ORinNano离线部署<b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大模型教程

    RK3588开发板上部署DeepSeek-R1大模型的完整指南

    DeepSeek作为国产AI大数据模型的代表,凭借其卓越的推理能力和高效的文本生成技术,在全球人工智能领域引发广泛关注。DeepSeek-R1作为该系列最新迭代版本,实现了长文本处理效能跃迁、多模态
    发表于 02-27 16:45

    OpenAI O3与DeepSeek R1:推理模型性能深度分析

    ,OpenAI的O3在编码任务方面超过了DeepSeekR1,而R1在数学和推理方面表现出了竞争力,同时在成本效益和开源可访问性方面也具有优势。 本文根据我们目前所了解的情况,对O3
    的头像 发表于 02-18 11:07 1312次阅读

    了解DeepSeek-V3 和 DeepSeek-R1两个大模型的不同定位和应用选择

    -V3 DeepSeek-R1 胜出方 电路方程求解 能处理简单方程,但对矩阵运算、微分方程等支持有限 通过符号蒸馏技术优化,可解析复杂电路网络方程(如节点分析法) R1 SPICE代码生成 生成基础SPICE语法代码
    发表于 02-14 02:08

    超星未来惊蛰R1芯片适配DeepSeek-R1模型

    日前,超星未来研发团队成功完成了惊蛰R1芯片对DeepSeek-R1模型的适配工作,实现了与用户之间的流畅对话。这一果标志着超星未来在人工智能芯片和模型优化方面取得了重要进展
    的头像 发表于 02-13 14:05 1107次阅读

    景嘉微完成DeepSeek R1系列模型适配

    景嘉微JM系列、景宏系列与DeepSeek R1系列的成功适配,进一步推动 DeepSeek 在云边端等各类场景的应用。
    的头像 发表于 02-12 14:03 999次阅读

    Deepseek R1大模型离线部署教程

    。作为国产AI大数据模型的代表,凭借其卓越的推理能力和高效的文本生成技术,在全球人工智能领域引发广泛关注。 本文主要说明DeepSeek-R1如何离线运行在EASY-EAI-Orin-Nano(RK3576)硬件上, RK3576 具有优异的端侧AI能效比与极高的性价比,
    的头像 发表于 02-12 09:37 2462次阅读
    <b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大模型离线部署教程

    AIBOX 全系产品已适配 DeepSeek-R1

    国产AI大模型DeepSeek以出色的性价比和高效的模型技术,迅速成为全球AI关注的焦点。Firefly开源团队率先实现AIBOX系列产品对DeepSeek-R1的全面适配。
    的头像 发表于 02-08 17:30 947次阅读
    AIBOX 全系产品已适配 <b class='flag-5'>DeepSeek-R1</b>

    扣子平台支持DeepSeek R1与V3模型

    近日,新一代AI应用搭建平台“扣子”宣布了一项重要更新,即正式支持DeepSeekR1和V3模型,并向广大用户开放免费体验。 扣子平台一直以来都致力于为用户提供便捷、高效的AI应用搭建服务,帮助
    的头像 发表于 02-08 13:42 1873次阅读

    Krea发布Deepseek R1驱动的Chat功能

    近日,Krea平台迎来了一项重大更新——全新发布的Krea chat功能。这一功能由Deepseek R1驱动,为用户带来了前所未有的便捷体验。 通过Krea chat,用户可以直接在聊天窗口中调用
    的头像 发表于 02-08 11:09 972次阅读

    云天励飞上线DeepSeek R1系列模型

    -Distill-Llama-70B大模型、DeepSeek V3/R1 671B MoE大模型也在有序适配中。适配完成后,DeepEdge10芯片平台将在端、边、云全面支持DeepSeek全系列模型。
    的头像 发表于 02-06 10:39 1085次阅读
    云天励飞上线<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>系列模型

    英伟达发布DeepSeek R1于NIM平台

    网站上发布。 据悉,DeepSeek R1 NIM微服务是英伟达在人工智能领域的一项重要创新,旨在为用户提供高效、精准的推理服务。在单个英伟达HGX H200系统上,该微服务每秒最多可处理3872个
    的头像 发表于 02-05 14:48 924次阅读