0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

新品 | Module LLM Kit,离线大语言模型推理模块套装

明栈科技 2025-03-28 18:49 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

5c1a27ac-0bc2-11f0-9434-92fbcf53809c.jpg

●●●

PART. 01

产品简介

Module LLM Kit 是一款专注于离线 AI 推理与数据通信接口应用的智能模块套件,整合了 Module LLM 与 Module13.2 LLM Mate 模块,满足多场景下的离线 AI 推理与数据交互需求。Module LLM 是一款集成化的离线大语言模型 (LLM) 推理模块,专为需要高效、智能交互的终端设备设计。Module13.2 LLM Mate 模块通过 M5BUS 接口与 Module LLM 实现堆叠供电,并提供Type-CRJ45FPC-8P 等多种接口功能,便于系统集成和扩展。

5c333292-0bc2-11f0-9434-92fbcf53809c.jpg

PART. 02

产品特性

◎ 高算力,低能耗

Module LLM Kit 采用 爱芯AX630C SoC 先进处理器,内置 3.2 TOPs 高能效 NPU,支持 Transformer 模型推理,轻松应对复杂 AI 任务。模块搭载 4GB LPDDR4 内存(其中 1GB 供用户使用,3GB 专用于硬件加速)及 32GB eMMC 存储,支持多模型并行加载与串联推理,满足多任务处理需求。模块运行功耗仅 1.5W,远低于同类产品,节能高效,适合长期稳定运行。

◎便捷语音与数据交互

集成麦克风、扬声器、TF 存储卡、USB OTG 及 RGB 状态灯,满足多样化应用需求,轻松实现语音交互与数据传输。

灵活拓展

板载 SD 卡槽支持固件冷/热升级,UART 通信接口简化连接与调试,确保模块功能持续优化与扩展。USB 口支持主从自动切换,既可以做调试口,也可以外接更多 USB 设备如摄像头。

◎多模型兼容

出厂预装 Qwen2.5-0.5B 大语言模型,内置 KWS(唤醒词)、ASR(语音识别)、LLM(大语言模型)及 TTS(文本生成语音)功能,且支持 apt 快速更新软件和模型包。安装 openai-api 插件后,即可兼容 OpenAI 标准 API,支持聊天、对话补全、语音转文字和文字转语音等多种应用模式。官方 apt 仓库提供丰富的大模型资源,包括 deepseek-r1-distill-qwen-1.5b、InternVL2_5-1B-MPO、Llama-3.2-1B、Qwen2.5-0.5B 以及 Qwen2.5-1.5B,同时还涵盖文本转语音模型(whisper-tiny、whisper-base、melotts)和视觉模型(如 yolo11 等 SOTA 模型)。仓库将持续更新,以支持最前沿的模型应用,满足各种复杂 AI 任务。

◎ 即插即用,快速集成

搭配 M5 主机,无需繁琐设置,即可将其集成到现有智能设备中,快速实现 AI 交互体验。

PART. 03

应用场景

◎ 离线语音助手

◎ 文本语音转换

智能家居控制

◎ 互动机器人

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • Module
    +关注

    关注

    0

    文章

    76

    浏览量

    13581
  • 语言模型
    +关注

    关注

    0

    文章

    573

    浏览量

    11341
  • LLM
    LLM
    +关注

    关注

    1

    文章

    350

    浏览量

    1394
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    新品 | LLM-8850 Kit,高性能AI加速卡套件 DinMeter v1.1,1/32DIN标准嵌入式开发板

    LLM-8850KitLLM-8850Kit是一款面向边缘AI与嵌入式计算场景的高性能AI加速卡套件,由LLM-8850CardAI加速卡与LLM-8850PiHat转接板组成。核心加速卡
    的头像 发表于 01-30 16:11 1351次阅读
    <b class='flag-5'>新品</b> | <b class='flag-5'>LLM</b>-8850 <b class='flag-5'>Kit</b>,高性能AI加速卡套件 DinMeter v1.1,1/32DIN标准嵌入式开发板

    LLM推理模型是如何推理的?

    这篇文章《(How)DoReasoningModelsReason?》对当前大型推理模型(LRM)进行了深刻的剖析,超越了表面的性能宣传,直指其技术本质和核心局限。以下是基于原文的详细技术原理、关键
    的头像 发表于 01-19 15:33 671次阅读
    <b class='flag-5'>LLM</b><b class='flag-5'>推理模型</b>是如何<b class='flag-5'>推理</b>的?

    NVIDIA TensorRT Edge-LLM在汽车与机器人行业的落地应用

    语言模型LLM)与多模态推理系统正迅速突破数据中心的局限。越来越多的汽车与机器人领域的开发者希望将对话式 AI 智能体、多模态感知系统和高级规划功能直接部署在端侧,因为在这些场景中
    的头像 发表于 01-14 09:10 3205次阅读
    NVIDIA TensorRT Edge-<b class='flag-5'>LLM</b>在汽车与机器人行业的落地应用

    新品 | Module ASR,AI智能离线语音模块

    ModuleASR是一款基于CI1302芯片设计的AI智能离线语音模块。配备麦克风用于清晰音频采集,并内置扬声器提供高质量的音频反馈。同时支持中途语音打断功能,允许在语音识别过程中灵活打断并快速响应
    的头像 发表于 12-05 18:15 910次阅读
    <b class='flag-5'>新品</b> | <b class='flag-5'>Module</b> ASR,AI智能<b class='flag-5'>离线</b>语音<b class='flag-5'>模块</b>

    NVIDIA TensorRT LLM 1.0推理框架正式上线

    TensorRT LLM 作为 NVIDIA 为大规模 LLM 推理打造的推理框架,核心目标是突破 NVIDIA 平台上的推理性能瓶颈。为实
    的头像 发表于 10-21 11:04 1385次阅读

    广和通发布端侧情感对话大模型FiboEmo-LLM

    9月,广和通正式发布自主研发的端侧情感对话大模型FiboEmo-LLM。该模型专注于情感计算与自然语言交互融合,致力于为AI玩具、智能陪伴设备等终端场景提供“情感理解-情感响应”一体化
    的头像 发表于 09-26 13:37 2011次阅读

    米尔RK3576部署端侧多模态多轮对话,6TOPS算力驱动30亿参数LLM

    加载 → 图片预处理 → 用户交互 → 推理输出”的核心流程,支持图文一体的多模态对话,适配多轮问答、视觉问答等典型场景。 具体运行机制可拆解为以下步骤:1. 模型初始化首先加载大语言模型
    发表于 09-05 17:25

    3万字长文!深度解析大语言模型LLM原理

    我们正在参加全球电子成就奖的评选,欢迎大家帮我们投票~~~谢谢支持本文转自:腾讯技术工程作者:royceshao大语言模型LLM的精妙之处在于很好地利用数学解决了工业场景的问题,笔者基于过往工程经验
    的头像 发表于 09-02 13:34 3599次阅读
    3万字长文!深度解析大<b class='flag-5'>语言</b><b class='flag-5'>模型</b><b class='flag-5'>LLM</b>原理

    基于米尔瑞芯微RK3576开发板的Qwen2-VL-3B模型NPU多模态部署评测

    演示 结论 一、基本介绍端侧 LLM 模型与云端 LLM端侧小型语言模型(SLM)与传统云端大型语言
    发表于 08-29 18:08

    如何在魔搭社区使用TensorRT-LLM加速优化Qwen3系列模型推理部署

    TensorRT-LLM 作为 NVIDIA 专为 LLM 推理部署加速优化的开源库,可帮助开发者快速利用最新 LLM 完成应用原型验证与产品部署。
    的头像 发表于 07-04 14:38 2395次阅读

    模型推理显存和计算量估计方法研究

    随着人工智能技术的飞速发展,深度学习大模型在各个领域得到了广泛应用。然而,大模型推理过程对显存和计算资源的需求较高,给实际应用带来了挑战。为了解决这一问题,本文将探讨大模型
    发表于 07-03 19:43

    使用NVIDIA Triton和TensorRT-LLM部署TTS应用的最佳实践

    针对基于 Diffusion 和 LLM 类别的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能显著提升推理速度。在单张 NVIDIA Ada Love
    的头像 发表于 06-12 15:37 2048次阅读
    使用NVIDIA Triton和TensorRT-<b class='flag-5'>LLM</b>部署TTS应用的最佳实践

    从FA模型切换到Stage模型时:module的切换说明

    。abilities具体差异见表5。 js标识基于ArkUI框架开发的JS模块集合,其中的每个元素代表一个JS模块的信息。pagesStage模型module标签下保留该对象中的pa
    发表于 06-05 08:16

    瑞萨RZ/V2H平台支持部署离线版DeepSeek -R1大语言模型

    瑞萨RZ/V2H平台支持部署离线版DeepSeek -R1大语言模型
    的头像 发表于 05-13 17:07 1845次阅读
    瑞萨RZ/V2H平台支持部署<b class='flag-5'>离线</b>版DeepSeek -R1大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>

    小白学大模型:从零实现 LLM语言模型

    在当今人工智能领域,大型语言模型LLM)的开发已经成为一个热门话题。这些模型通过学习大量的文本数据,能够生成自然语言文本,完成各种复杂的任
    的头像 发表于 04-30 18:34 1436次阅读
    小白学大<b class='flag-5'>模型</b>:从零实现 <b class='flag-5'>LLM</b><b class='flag-5'>语言</b><b class='flag-5'>模型</b>