0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

怎么把 EmbedClaw 从 Qwen 扩到五款国产大模型

启明云端 2026-04-07 18:06 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

前面几篇,我已经把 EmbedClaw 的整体架构、上手方式、Tool 扩展讲得差不多了。

这一篇我不再重复入门,直接讲最近这次更新里最实际的一件事:

66878e40-3269-11f1-ab55-92fbcf53809c.png

这里先把时间线说清楚,避免误解。

EmbedClaw 最早并不是一开始就支持五家。

最早跑通的,只有 Qwen via DashScope。

直到最近,我才把 DeepSeek / 豆包 / Kimi / 混元 这几组预设一起补进来。

也就是说:

在最早先把 Qwen 跑通之后,我把多模型切换这件事正式补齐了。

现在,EmbedClaw 可以直接切下面这五家国产模型:

6692056e-3269-11f1-ab55-92fbcf53809c.png

这一篇,我就把这件事一次讲清楚:

66a71972-3269-11f1-ab55-92fbcf53809c.png

项目地址:

https://github.com/wireless-tag-com/EmbedClaw


01

为什么这五家我都放进同一条接入链路

主要核心是这些都兼容OpenAI的调用方式

所以你在仓库里会看到两件事:

components/embed_claw/llm/ec_llm.c 默认初始化的是 openai provider

components/embed_claw/ec_config_internal.h 里内置了五组模型预设

这意味着,在 EmbedClaw 里切模型,本质上不是重写 Agent,也不是重写 Tool。

真正会变的,通常只有三项:

API Key

API URL

Model

这就是我想要的效果。

模型应该是可替换的,而不是把整个工程绑死在某一家平台上。

02

先说一个最关键的点

前面几篇如果你已经跟着做过,这里我只提醒一句:

真正该改的是 main/ec_config.h,不是组件里的默认配置。

仓库里的 components/embed_claw/ec_config_internal.h 负责提供默认值,你自己的模型切换和密钥覆盖,放到 main/ec_config.h 就够了。

一个最小模板可以直接写成这样:

#defineEC_USE_QWEN 1#defineEC_USE_DEEPSEEK 0#defineEC_USE_DOUBAO 0#defineEC_USE_KIMI 0#defineEC_USE_HUNYUAN 0#defineEC_LLM_API_KEY "YOUR_API_KEY"

这几个规则先记住,后面就不会配乱:66bb9fc8-3269-11f1-ab55-92fbcf53809c.png

如果你想把地址和模型名也一起写死,可以这样写:

#defineEC_LLM_PROVIDER_NAME "openai"#defineEC_LLM_API_URL "https://your-endpoint/v1/chat/completions"#defineEC_LLM_MODEL "your-model-name"#defineEC_LLM_API_KEY "YOUR_API_KEY"

这也是我一直想要的开发体验:

切模型,应该是改配置,不应该是拆架构。

03

五款大模型

01

通义千问

千问是 EmbedClaw 最早就有的那条链路。

它不只是当前默认模型,也是我最早跑通的默认模型。

当前仓库里的默认值是:

#defineEC_QWEN_LLM_API_URL "https://dashscope-intl.aliyuncs.com/compatible-mode/v1/chat/completions"#defineEC_QWEN_LLM_MODEL "qwen-plus"

也就是说,如果你先跑千问,通常只要把 EC_LLM_API_KEY 填进去就够了。


申请 API Key

打开阿里云 Model Studio API Key文档

(https://help.aliyun.com/zh/model-studio/get-api-key)

  1. 66cbe784-3269-11f1-ab55-92fbcf53809c.png

按文档里的入口进入 API-KEY Management

登录你的阿里云账号

创建一个新的 API Key

  1. 66da234e-3269-11f1-ab55-92fbcf53809c.png

复制并保存好

  1. 66e96bf6-3269-11f1-ab55-92fbcf53809c.png


配置示例

#defineEC_USE_QWEN 1#defineEC_USE_DEEPSEEK 0#defineEC_USE_DOUBAO 0#defineEC_USE_KIMI 0#defineEC_USE_HUNYUAN 0#defineEC_LLM_API_KEY "YOUR_DASHSCOPE_API_KEY"

如果你不额外定义 EC_LLM_API_URL 和 EC_LLM_MODEL,EmbedClaw 就会自动落到这组千问预设。

2

DeepSeek

DeepSeek 也是我在仓库里直接做成预设的一组。

当前默认值是:

#defineEC_DEEPSEEK_LLM_API_URL "https://api.deepseek.com/v1/chat/completions"#defineEC_DEEPSEEK_LLM_MODEL "deepseek-chat"

切过去很简单,关掉千问,打开 EC_USE_DEEPSEEK,然后换成你自己的 Key 就行。


申请 API Key

打开DeepSeek首页(https://deepseek.com/)

选择API开放平台

  1. 66f2fae0-3269-11f1-ab55-92fbcf53809c.png

创建 API Key

  1. 670594de-3269-11f1-ab55-92fbcf53809c.png


配置示例

#defineEC_USE_QWEN 0#defineEC_USE_DEEPSEEK 1#defineEC_USE_DOUBAO 0#defineEC_USE_KIMI 0#defineEC_USE_HUNYUAN 0#defineEC_LLM_API_KEY "YOUR_DEEPSEEK_API_KEY"

如果你想先确认是不是平台侧问题,我建议先拿一条最小请求把接口测通:

curl https://api.deepseek.com/v1/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer YOUR_DEEPSEEK_API_KEY" \ -d '{ "model":"deepseek-chat", "messages": [ { "role":"user","content":"hello" } ] }'

这是我自己调接口时常用的办法。

先把云端接口确认没问题,再回头看设备侧日志,排查会快很多。

03

豆包

豆包这条线我想多说一句。

我在仓库里也给它做了预设,但豆包的实际接入,最好不要只靠默认值去猜。

因为不同区域、不同控制台入口、不同开通模型,最后拿到的 URL 和 model 可能并不完全一样。

当前仓库默认值是:

#defineEC_DOUBAO_LLM_API_URL "https://ark.cn-beijing.volces.com/api/v3/chat/completions"#defineEC_DOUBAO_LLM_MODEL "doubao-seed-2-0-pro-260215"

但如果你控制台里已经给了明确的地址和模型名,我还是建议你直接覆盖掉。


申请 API Key

打开豆包API

点击开启AI新体验

  1. 67193bc4-3269-11f1-ab55-92fbcf53809c.png

点击 API 接入

  1. 672bf05c-3269-11f1-ab55-92fbcf53809c.png

点击创建

  1. 67390d0a-3269-11f1-ab55-92fbcf53809c.png

完成认证

  1. 674b7472-3269-11f1-ab55-92fbcf53809c.png

开通模型后复制 URL、model 和 API Key

  1. 6758ac78-3269-11f1-ab55-92fbcf53809c.png


推荐配置

#defineEC_USE_QWEN 0#defineEC_USE_DEEPSEEK 0#defineEC_USE_DOUBAO 1#defineEC_USE_KIMI 0#defineEC_USE_HUNYUAN 0#defineEC_LLM_API_KEY "YOUR_DOUBAO_API_KEY"#defineEC_LLM_API_URL "控制台给你的 URL"#defineEC_LLM_MODEL "控制台给你的 model"

这条线我更推荐你按控制台实际值来配,而不是完全依赖仓库默认值。

这样最稳。

04

Kimi

Kimi 这边的接入也已经内置好了。

当前默认值是:

#defineEC_KIMI_LLM_API_URL "https://api.moonshot.cn/v1/chat/completions"#defineEC_KIMI_LLM_MODEL "kimi-k2.5"

这条线的思路和前面一样,切换成本非常低。


申请 API Key

打开Kimi开放平台

点击开始构造

  1. 676bf256-3269-11f1-ab55-92fbcf53809c.png

选择API Key管理,并创建 API Key

  1. 677f6016-3269-11f1-ab55-92fbcf53809c.png

输入 API 名称,选择 default 项目

  1. 6793ecb6-3269-11f1-ab55-92fbcf53809c.png

复制 API Key

  1. 67a1587e-3269-11f1-ab55-92fbcf53809c.png


配置示例

#defineEC_USE_QWEN 0#defineEC_USE_DEEPSEEK 0#defineEC_USE_DOUBAO 0#defineEC_USE_KIMI 1#defineEC_USE_HUNYUAN 0#defineEC_LLM_API_KEY "YOUR_KIMI_API_KEY"

如果你后面想换成 Kimi 的其它具体模型,也一样,显式覆盖 EC_LLM_MODEL 就行。

05

腾讯混元

很多人更熟悉“腾讯元宝”这个名字。

但对开发者来说,真正对应的接入能力其实是“腾讯混元”API。

元宝是产品,混元是底层模型。

当前仓库默认值是:

#defineEC_HUNYUAN_LLM_API_URL "https://api.hunyuan.cloud.tencent.com/v1/chat/completions"#defineEC_HUNYUAN_LLM_MODEL "hunyuan-turbos-latest"


申请 API Key

打开腾讯混元大模型

创建API key

  1. 67b4e8c6-3269-11f1-ab55-92fbcf53809c.png

点击查看,然后复制 API Key 即可

  1. 67be611c-3269-11f1-ab55-92fbcf53809c.png


配置示例

#defineEC_USE_QWEN 0#defineEC_USE_DEEPSEEK 0#defineEC_USE_DOUBAO 0#defineEC_USE_KIMI 0#defineEC_USE_HUNYUAN 1#defineEC_LLM_API_KEY "YOUR_HUNYUAN_API_KEY"

如果腾讯云控制台给了你明确模型名,那就把 EC_LLM_MODEL 一起写上,不用依赖默认值。

04

最后给一份通用模板

如果你只是想先把其中一家跑起来,那下面这份 main/ec_config.h 模板可以直接改:

#defineEC_USE_QWEN 0#defineEC_USE_DEEPSEEK 0#defineEC_USE_DOUBAO 0#defineEC_USE_KIMI 0#defineEC_USE_HUNYUAN 1#defineEC_LLM_PROVIDER_NAME "openai"#defineEC_LLM_API_KEY "YOUR_API_KEY"/* 平台如果给了明确 URL 和 model,建议直接写 *//* #define EC_LLM_API_URL "https://your-endpoint/v1/chat/completions" *//* #define EC_LLM_MODEL "your-model-name" *//* 可选 *//* #define EC_SECRET_SEARCH_KEY "YOUR_TAVILY_API_KEY" *//* #define EC_SECRET_FEISHU_APP_ID "YOUR_FEISHU_APP_ID" *//* #define EC_SECRET_FEISHU_APP_SECRET "YOUR_FEISHU_APP_SECRET" */

你把其中一家打开,把 Key 填进去,基本就能开始测。

05

写在最后

这次之所以能比较快地把这五家补进来,一个很现实的原因就是:

它们本身都能走 OpenAI-Compatible 这条调用链路。

如果你手上还有自己常用、也支持 OpenAI-Compatible 调用的大模型,欢迎继续往里加。

希望大家可以多多的参与进来,改造EmbedClaw。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    91

    文章

    40941

    浏览量

    302523
  • 大模型
    +关注

    关注

    2

    文章

    3750

    浏览量

    5268
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    壁仞科技光速支持阿里Qwen3.6-35B-A3B大模型

    强大的通用性以及全自研BIRENSUPA软件栈的成熟度,旗下壁砺 166系列产品完成Qwen3.6-35B-A3B模型的光速适配。壁仞科技致力于为国产模型落地提供澎湃动力,在此之前已
    的头像 发表于 04-20 17:50 623次阅读

    一句话让大模型控制硬件:手把手教你给 EmbedClaw 添加自己的 Tool!

    很多人第一次看到EmbedClaw会有一种错觉:然而事实是:不能直接操作,但可以通过Tool去操作。这也是EmbedClaw很有意思的一点。它不是模型硬塞进ESP32里当聊天机器人
    的头像 发表于 04-01 18:32 131次阅读
    一句话让大<b class='flag-5'>模型</b>控制硬件:手把手教你给 <b class='flag-5'>EmbedClaw</b> 添加自己的 Tool!

    EmbedClaw可以使用QQ进行控制啦!

    EmbedClaw最近更新了一个新的功能:那就是可以对接QQ机器人!那么本期,就让我们QQ机器人直接接进EmbedClaw,让ESP32上的AIAgent真正在QQ里“活起来”。更关键的是,这条链
    的头像 发表于 03-20 18:06 167次阅读
    <b class='flag-5'>EmbedClaw</b>可以使用QQ进行控制啦!

    沐曦股份曦云C系列GPU全面适配通义千问Qwen3.5三模型

    今日,通义千问团队正式开源发布Qwen3.5系列中等规模模型,推出包括Qwen3.5-35B-A3B、Qwen3.5-122B-A10B、Qwen
    的头像 发表于 02-28 10:05 678次阅读
    沐曦股份曦云C系列GPU全面适配通义千问<b class='flag-5'>Qwen</b>3.5三<b class='flag-5'>款</b>新<b class='flag-5'>模型</b>

    摩尔线程MTT S5000全面适配Qwen3.5三模型

    继开源Qwen3.5-397B-A17B之后,阿里再次宣布开源千问3.5最新三中等规模模型Qwen3.5-35B-A3B、Qwen3.5
    的头像 发表于 02-26 16:23 718次阅读

    沐曦股份曦云C系列GPU深度适配通义千问Qwen3.5模型

    今天,通义千问今天正式发布 Qwen3.5,并推出Qwen3.5系列的第一模型 Qwen3.5-397B-A17B 的开放权重版本。沐曦股
    的头像 发表于 02-26 14:26 759次阅读
    沐曦股份曦云C系列GPU深度适配通义千问<b class='flag-5'>Qwen</b>3.5<b class='flag-5'>模型</b>

    成都汇阳投资关于国产开源模型持续突破,国产AI 竞争力增强

    、MiniMax-M2 分别位列全球开源榜单第一 、 第二 ,且榜单前名中国产开源模型占据四席(Qwen3 235BA22B2507 和 DeepSeek V3.2 Exp 分别位列
    的头像 发表于 11-24 14:01 707次阅读

    壁仞科技完成Qwen3旗舰模型适配

    近日,在高效适配Qwen3系列模型推理后,壁仞科技宣布完成旗舰版Qwen3-235B-A22B模型的训练适配和优化。由此,壁仞科技已实现Qwen
    的头像 发表于 05-16 16:23 1144次阅读

    Arm CPU适配通义千问Qwen3系列模型

    与阿里巴巴开源的轻量级深度学习框架 MNN 已深度集成。得益于此,Qwen3-0.6B、Qwen3-1.7B 及 Qwen3-4B 三模型
    的头像 发表于 05-12 16:37 1582次阅读

    中软国际科创中心上线阿里Qwen3-235B模型

    近日,中软国际科创中心快速部署阿里Qwen3-235B模型并完成测试,为客户提供 AI 项目POC的模型新选择,助力企业快速实现智能化转型,加速国产化通用人工智能(AGI)产业发展。
    的头像 发表于 05-12 15:40 1189次阅读

    NVIDIA RTX 5880 Ada与Qwen3系列模型实测报告

    近日,阿里巴巴通义千问团队正式推出新一代开源大语言模型——Qwen3 系列,该系列包含 6 Dense 稠密模型和 2 MoE 混合
    的头像 发表于 05-09 15:05 4657次阅读
    NVIDIA RTX 5880 Ada与<b class='flag-5'>Qwen</b>3系列<b class='flag-5'>模型</b>实测报告

    NVIDIA使用Qwen3系列模型的最佳实践

    阿里巴巴近期发布了其开源的混合推理大语言模型 (LLM) 通义千问 Qwen3,此次 Qwen3 开源模型系列包含两混合专家
    的头像 发表于 05-08 11:45 3199次阅读
    NVIDIA使用<b class='flag-5'>Qwen</b>3系列<b class='flag-5'>模型</b>的最佳实践

    寒武纪率先支持Qwen3全系列模型

    近日,阿里Qwen团队一口气上新8大模型Qwen3正式发布并全部开源。
    的头像 发表于 05-07 15:51 1142次阅读

    中科曙光DeepAI深算智能引擎全面支持Qwen3

    日前,Qwen3正式发布并全部开源8混合推理模型。作为Qwen系列中的最新一代大型语言模型Qwen
    的头像 发表于 05-06 15:17 1312次阅读

    壁仞科技完成阿里巴巴通义千问Qwen3全系列模型支持

    4月29日,阿里巴巴通义千问发布并开源8新版Qwen3系列“混合推理模型”(简称“Qwen3”)。Qwen3发布后数小时内,壁仞科技完成全
    的头像 发表于 04-30 15:19 1704次阅读