发 帖  

【免费申请】8核RISC-V架构,基于MUSE Pi Pro开发板大赛

本次大赛由中国电子学会联合发起,电子发烧友携手进迭时空开放4个主题赛道:依托自主研发的K1芯片平台MUSE Pi Pro单板计算机进行命题,围绕边缘计算智能终端开发 ...了解更多>>

价值:¥799元提供:50 已申请:75
剩余时间:
分享
  • 试用详情
  • 试用名单
  • 试用报告

》大赛介绍

本次大赛由中国电子学会联合发起,电子发烧友携手进迭时空设立“CIE-进迭时空RISC-V应用创新赛道”,含4大参赛主题,请选择1个参赛:
赛题1:基于K1的人工智能终端及应用开发
赛题2:基于K1 AI CPU的大模型部署落地
赛题3:基于本地大模型的AI智能助手开发
赛题4:融合AI的OpenHarmony应用软件开发
重要提示

1)申请报名时,请务必在项目计划中首行填写你的参赛赛题

2)支持团体参赛,在项目计划中备注团队各成员姓名;

3)如为在校学生,公司栏可填写学校名称。


》技术平台

本赛道以进迭时空K1 CPU的开发板为硬件底座,搭配开源开发的系统OS基座和的丰富软件组件,进迭时空学习套件提供丰富的样例代码和使用说明,加速用户学习和开发流程。

1. 芯片K1及开发板介绍

(1)芯片K1介绍

K1是Spacemit Stone系列的首颗芯片,基于RISC-V开源指令集,专为高性能、低功耗场景设计,适用于机器人、边缘计算等领域。

1)主要特性

• 出色的CPU性能:8核RISC-V AI CPU,提供50K DMIPS算力,单核性能Specint2006 > 4.0/GHz。

• 强大的AI算力:2 TOPS AI算力,支持本地大模型运行(>10 Tokens/S @1B模型)。

• 先进的RISC-V架构:支持RVA22 Profile和256bit RVV 1.0标准,向量性能是ARM NEON的150%。

• 高能效设计:同负载场景功耗仅为同档芯片的80%。

• 丰富的外设接口:集成PCIe、USB、GMAC、SPI等,满足多样化连接需求。

• 工业级可靠性:支持-40°C~85°C工作温度,适用于苛刻环境。

2)软件生态

• 完善的SDK支持:提供Bianbu Linux BSP,包含OpenSBI、U-Boot、Linux内核、根文件系统及示例代码。

• 主流操作系统支持:适配Bianbu OS(基于Ubuntu优化)、OpenHarmony、OpenWR等。

• 机器人开发支持:支持ROS2,提供机器人算法开发和调试工具。

• AI组件:集成硬件加速的ONNX Runtime框架,支持深度学习推理, 支持ollama和llama.cpp。

• 云上开发平台Bianbu Cloud:支持一键注册,远程连接硬件平台,实现云端开发调试。

(2)硬件平台介绍

MUSE Pi Pro是基于进迭时空8核 RISC-V CPU K1芯片的单板计算机、具有大容量DRAM和存储空间、丰富通用接口部件和扩展接口,为机器人、边缘计算、AIOT等场景设计。具有2TOPS算力,配套本地大模型和视觉算法,能够高效搭建多样化的智能产品,让智能应用更简单。

可扩展外设部件或自制件

40pin接口定义如下,通用输入输出电平控制,UART、SPI、I2C等串行接口资源,支持连接各类DIY配件。

(3)基于K1的机械臂介绍

基于K1芯片的强大算力和丰富接口,机器臂能够实现更高效的机器人控制和智能化应用,为参赛选手提供创新的开发平台。

image.png


1)myCobot 280 Risc-V机械臂

• 自由度:6轴。

• 有效负载:250g。

• 工作半径:280mm。

• 重复定位精度:±0.5mm。

• 重量:860g。

• 特点:轻量化设计,支持ROS开发,适合教育、科研场景。

2)功能与优势

基于K1芯片的支持,搭配机械臂和移动机器人能够实现以下共同功能:

1. 视觉抓取与精准操作

• 结合K1芯片的AI算力,支持物体识别与定位,实现高精度抓取。

• 通过手眼标定算法(如myCobot Camera Flange 2.0),实现精准吸取和放置操作。

2. 路径规划与避障

• 利用K1芯片的并行计算能力,支持复杂路径规划和动态避障功能。

• myAGV 2023 配备360°激光雷达,可实现高精度环境感知与导航。

3. 多机协同与任务分配

• 通过K1芯片的多核性能,支持多机器人协同工作,完成复杂场景任务。

• 例如,myAGV 2023 可搭载 myCobot 280Pi 机械臂,实现移动抓取与分拣任务。

4. 实时控制与高效响应

• K1芯片的低延迟特性确保机器人系统的实时响应能力。

• 适用于需要高精度和高实时性的场景,如物流分拣和自动化装配。

5. 开放生态与灵活开发

• 支持ROS开发,提供丰富的API和开发工具,便于二次开发和功能扩展。

• 适用于教育、科研和商业预研等多种场景。

6. 可视化编程工具支持

• 适配支持K1芯片的可视化编程工具,提供图形化编程界面,用户可通过拖拽和拼接功能模块快速完成机械臂和移动机器人的控制程序开发。

• 适用于机器人编程教学,帮助学生理解机器人控制逻辑和算法原理。


2. 软件平台介绍

Bianbu

Bianbu是一个融合桌面操作系统,针对RISC-V架构的处理器做了深度优化,基于Ubuntu社区源码构建,旨在给用户提供更流畅、更兼容和更简洁的体验。基于Bianbu Star系统,我们定制开发桌面环境,不断优化用户交互流畅性;持续融合AI,提供系统原生AI能力;兼容支持更多RISC-V构架下的应用,丰富软件生态。

image.png

Bianbu cloud

Bianbu cloud是进迭时空为了服务全球RISC-V开发者而构建的RISC-V云实例, 为全球开发者提供RISC-V计算实例,支持远程桌面、远程编译、一键刷机、一键应用安装、远程SSH调试、串口调试等功能,让开发者可以随时随地的使用RISC-V算力并做创意开发。

• RISC-V 应用调试

用户可以远程ssh、远程桌面,远程编译,上传文件等功能适配应用到RISC-V 平台

• 远程驱动调试

用户可以使用远程串口,一键固件刷机调试Uboot和Linux驱动

• RISC-V 场景体验

体验Risc-V架构下操作系统及相关应用使用体验

• RISC-V 开发板评估

用户评估开发板是否满足业务需求


》活动时间

1.申请报名:2025年9月11日 - 10月8日

2.名单审核:申请报名后一周内审核1次

3.提交作品:截止2025年11月8日

ps:报名审核通过后,即可安排发放相应开发板套件(赛题1)、云平台账号(赛题2-4)


》作品报告

1.最终参赛作品需同时在电子发烧友论坛-进迭时空小组和大赛组委官方(大赛群会另行通知)发布提交;

2.电子发烧友论坛作品报告提交格式:【CIE全国RISC-V创新应用大赛】+自拟标题

3.活动期间鼓励不定期在电子发烧友论坛-进迭时空小组,上传开发进度、日记、经验分享等内容,大赛结束后必须上传最终参赛作品

4.如未按要求上传相应内容,将取消活动评选资格。


》技术支持

1. 赛题开发平台

2. 硬件申领

1)本赛题1 所使用到的MUSE Pi Pro开发板,在赛事结束后需回收;

2)本赛题2-4,所使用到的云上开发平台,依据报名分配账号。

3. 可选配件/组件

购买渠道:进迭时空官方淘宝店

备注:如果项目需要其他传感器或者执行单元,可以根据需求选择和适配。


》大赛奖项

1. 决赛阶段

得分前30%的参赛项目团队可获得由中国电子学会与进迭时空共同盖章颁发的决赛奖励证书

2.总决赛阶段

优胜奖:全国总决赛得分排在前20%;

专项奖:技术创新、商业价值、发展潜力等,根据全国总决赛参赛项目现场表现,由大赛评审委员会进行推荐(不含已获优胜奖的项目);

所有获得全国总决赛优胜奖和专项奖的参赛项目,其所属团队均可获得由中国电子学会盖章颁发的全国总决赛奖励证书。

3.奖金池

奖金池共人民币10万元(含税),平均分配给全国总决赛优胜奖的参赛项目。


》参赛说明(请仔细阅读)

赛题1 基于K1的的人工智能终端及应用开发

本赛题要求基于进迭时空RISC-V AI CPU平台K1,构建支持机器视觉(CV)、语音识别(ASR)、大语言模型(LLM)协同的轻量化系统,实现环境感知、语义理解与实体交互闭环,完成智能终端软硬件一体化开发。

1.项目要求

1)使用进迭时空KI 芯片平台的开发板或机械臂,并按需选择搭配合适配件(非必须),基于进迭时空Bianbu OS系统,结合K1芯片平台的AI算力,实现多模态协同(至少选择CV,ASR,LLM中的两种);

2)本地完成AI部署和推理,通过外设模块(摄像头、麦克风、传感器等)构建完整数据链路;

3)展现AI模型与控制系统的深度协同,如:视觉引导抓取、语音指令操控、LLM驱动的任务规划等;

4)开发自定义的人机交互方式和处理逻辑,体现终端的智能化;

5)应用方向不限,如工业场景、教育应用、机器人、智能家居、AI智能硬件等,也可以直接开发AI应用,如RAG系统。

2.评分标准

3.参考资料

• 进迭时空开发者社区:https://developer.spacemit.com/

• BianbuCloud云平台使用指南:https://active.spacemit.com

• K1 MUSEPI Pro开发板使用文档:https://developer.spacemit.com/documentation?token=EIk1wVY9NinD95kMsw0cFM89npd

• Bianbu 操作系统介绍:https://bianbu.spacemit.com/

• Bianbu Ollama介绍:https://bianbu.spacemit.com/ai/ollama

• Bianbu llama.cpp介绍:https://bianbu.spacemit.com/ai/llama-cpp


赛题2 基于K1 AI CPU的大模型部署落地

边缘场景下,海量的设备(如儿童玩具、智能音响、扫地机器人等),都需要智能化升级交互方式。目前的设备,要么模型能力不够,智能化水平不足;要么需要云端协同,容易泄露隐私,因此需要将模型本地化部署。本赛题要求将qwen2.5-14B模型,成功部署到K1芯片上。

1.项目要求

1)基础功能

AI模型本地化:模型本地化部署到8GB内存容量版本的K1上

部署工具:使用进迭时空开源的部署工具,llamacpp及ONNXRuntime进行部署

2)创新功能

模型层面:可以对模型进行量化、稀疏等压缩,降低硬件使用成本

部署工具层面:可以通过调优部署工具的调度方案,优化底层算子等方式来加速模型推理速度

2.评分标准

3.参考资料

• Bianbu onnxruntime 介绍:https://bianbu.spacemit.com/ai/onnxruntime

• Bianbu Ollama 介绍:https://bianbu.spacemit.com/ai/ollama

• Bianbu llama.cpp 介绍:https://bianbu.spacemit.com/ai/llama-cpp


赛题3 基于本地大模型的AI智能助手开发

本赛题要求基于进迭时空Bianbu OS系统,利用K1芯片AI算力、RVV向量加速能力,开发本地运行的AI系统助手。该助手需通过自然语言交互实现应用控制、文件管理、系统操作等任务,打造真正懂操作系统的AI智能体,让用户通过文本交互控制系统。

1.项目要求

1)基于进迭时空RISC-V AI CPU K1平台,在进迭时空Bianbu系统上,使用本地推理框架完成功能开发;

2)可以通过AI助手可以完成如下功能控制:

•应用控制,如启动/关闭应用(如“打开视频播放器”);

•实现系统操作,比如关机,重启,休眠等;

•系统设置,比如音量,亮度等;

•系统信息查询,如CPU占有率,内存占有率等;

•不限于以上的其他功能;

• 实现多轮对话上下文记忆(记忆轮数≥3);

• 开发完整的图形交互应用,可以基于WEB、QT等框架。

2.评分标准


3.参考资料

• 进迭时空开发者社区:https://developer.spacemit.com/

• BianbuCloud云平台使用指南:https://active.spacemit.com

• K1 MUSEPI Pro开发板使用文档:https://developer.spacemit.com/documentation?token=EIk1wVY9NinD95kMsw0cFM89npd

• Bianbu 操作系统介绍:https://bianbu.spacemit.com/

• Bianbu Ollama介绍:https://bianbu.spacemit.com/ai/ollama

• Bianbu llama.cpp介绍:https://bianbu.spacemit.com/ai/llama-cpp


赛题4 融合AI的OpenHarmony应用软件开发

参赛作品需基于进迭时空K1+OpenHarmony 5.0 SDK版本开发,典型开发方向包括但不限于:多媒体应用,文件管理应用,社交应用等,需集成至少一种AI能力(如ASR、LLM),并将该能力有效的融合在应用中。

1.项目要求

1)基于进迭时空 + K1 OpenHarmony 5.0版本开发

2)应用开发方向包括但不限于:多媒体应用,文件管理应用,社交应用

3)AI能力应用包括但不限于:

•多媒体应用类:音视频AI处理(如智能剪辑、实时翻译字幕等)

•文件管理应用类:智能分类/检索

•社交应用类:AI辅助交互功能(如智能回复生成)

4)AI能力可选择调用云端或者端侧,对于低算力场景建议走端侧

2.评分标准

3.参考资料

• K1 OpenHarmony简介:https://developer.spacemit.com/documentation?token=JuxFwQceHihZcakfyrGcIFs5n8d

• BianbuCloud云平台使用指南:https://active.spacemit.com

• K1常用开发板简介:https://developer.spacemit.com/documentation?token=FpxwwKJc8iGvTdkuLihcxQZMnle

• OpenHarmony官网:https://www.openharmony.cn/mainPlay

• OpenHarmony应用开发指南:https://www.openharmony.cn/docs/zh-cn/application-dev/


他们正在申请

">

ALSET

21:3110-08
本人一直从事物联网相关产品开发,非常熟悉智慧物联的实际需求,具有传感器通信,监控,报警以及数据分析展示与应用等物联数据平台开发和移植经验,具有机器视觉在工业应用的开发实践。了解到基于K1的人工智能终端开发板专为各种智能应用而构建, 开发板可以用于评估智能城市、机器视觉、安全摄像头、零售分析以及其他各种与视觉应用相关的场景的方案。 本人希望基于K1的人工智能终端开发板对设备故障声纹进行深度学习下的推理检测,能够从环境声纹中检测到训练的特征声纹成像,从而判断出故障状态并进行几十预警,便于构建多模态的智能监控系统,使成为一个RISC-V应用机器声纹AI应用的边缘计算设备。 试用计划: 1)、根据文档和例程,熟悉MUSE Pi Pro开发板开发环境和其基本资源; 2)、适配读取相关I2S 接口数据采集方式; 3)、通信功能调试,无线配网、以太网通讯; 4)、调试以太网络通讯接口; 5)、移植 ADFT声纹特征推理程序,完成在开发板上ADFT框架的程序运行; 6)、项目总结与分享; 预计成果: 1)、开发环境安装及使用小技巧分享; 2)、部分demo实现与分享; 3)、与坛友互动交流; 4)、分阶段分享开发过程与开发成果 5)、录制开发成果视频,开发技术分享。
">

mameng

15:3510-08
所选赛题1:基于K1的人工智能终端及应用开发 项目名称:基于MUSE Pi Pro开发板智能防爆巡检多功能机器人 项目背景 2022 年 3 月,国家应急管理部发布的十四五危险化学品安全生产规划中提出,到 2025 年工作目标:是实现全国化工、油气等领域的 1 个下降和 3 个明显的实现,即化工、油气领域事故起数、死亡人数持续下降,安全治理体系建设明显提速、本质安全水平明显提升、重点领域安全管理明显加强,并强调把危险化学品安全风险防控摆在防范化解重大风险的突出位置。这与十四五机器人产业发展规划的五项主要任务中,所提出的重点推进特种机器人在特殊环境作业领域的研制以及应用,以应用牵引促进产业升级,坚持产业融合发展,推动机器人产业高质量发展遥相呼应。 2023 年 8 月 9 日,为认真贯彻国务院安委会安全生产十五条硬措施和省委、省政府安全生产“八抓 20 条”创新措施,严格落实省政府安委会《山东省化工行业安全生产整治提升专项行动总体工作方案》加快推进危险化学品安全生产“机械化换人、自动化减人、智能化无人”工作(以下简称“三化”建设),青岛、枣庄、东营济宁等市采取有效措施,培育先进典型,开展智能巡检机器人系统建设与应用,有力推动了危险化学品安全生产“三化”建设工作。近期,在广泛征求意见的基础上,山东省应急厅组织编制了《山东省危险化学品企业智能巡检机器人系统建设与应用指南(试行)》,指导、规范全省危险化学品企业智能巡 2024 年 5 月 28 日,为认真贯彻落实省委、省政府工作部署要求,山东省应急厅制定了《山东省危险化学品安全生产“机械化换人、自动化减人、智能化无人”三年行动方案(2024—2026 年)》,方案中提出积极采用智能巡检系统替代人工巡检。加快推广应用智能巡检机器人系统,并采用智能视频监控系统、在线检测监控技术等先进适用技术装备,以智能巡检方式替代人工巡检作业,最大限度减少现场巡检人员。2024 年年底前,完成典型企业的重大危险源单元智能巡检系统试点应用,并拓展应用场景;2026 年年底前,构成重大危险源的罐区和仓库、输送危险化学品的管廊等重点装置设施基本完成智能巡检系统应用工作。为深入贯彻党的二十大精神和习近平总书记关于应急管理的重要指示精神, 落实《“十四五”国家应急体系规划》《“十四五”应急管理装备发展规划》《“十四五”机器人产业发展规划》《安全应急装备重点领域发展行动计划 2023-2025年)》等战略部署,加快推动应急机器人技术发展与实战应用,推进应急管理体系和能力现代化,制定本方案。 项目目标 本次项目主要针对化工厂的车间,生产过程产生的氢气具有易燃易爆性,同时氯气、烧碱对人体有一定的健康危害。现有的传统人工巡检方式人员投入巨大,且对工作的管控力度不足,运维管理在设备、环境和人员的状态管控方面还缺乏有效手段,存在人为因素导致的巡检疏漏和错误,亟需以智能化为方向,利用智能化防爆智能巡检机器人技术辅助人力巡检,从而提升生产管理水平,代替人工巡检在日常或特殊环境下的部分能力,实现厂区智能化建设的实践应用,达到提升厂区安全运行效率的目的。 基于MUSE Pi Pro开发板智能防爆巡检多功能机器人出色的CPU性能:8核RISC-V AI CPU,提供50K DMIPS算力,2 TOPS AI算力,支持ROS2,提供机器人算法开发和调试工具,对外接口丰富。可应用于机器人、边缘计算盒子、智慧工业、视频图像分析、自然语言处理、智能安防。满足项目开发的硬件环境。危险场所或高强度巡检场合,机器人巡检方案的技术核心在于导航定位、感知检测、数据分析与决策、通信控制及续航技术的协同应用。软件架构为ROS + RTOS开发。 采用四轮四驱轮式底盘设计,同时机器人具备防爆设计、防风设计、防震动设计、温度适应性设计、高可靠性设计、高电池性能设计,智能避障设计。防爆智能巡检外壳采用静电喷涂工艺,具有防腐蚀、防水、抗氧化三防功能,机器人内部传感、控制,采用模块化设计,标准化生产。具体子系统模块: 一、导航与定位 激光导航:基于MUSE Pi Pro开发板 适配ROS系统,通过SLAM算法驱动激光雷达发射激光束并接收反射信号,构建周围环境的三维地图,实现厘米级精度的定位和路径规划。这种技术适用于复杂环境,如大型工厂、仓库等,能够引导机器人在狭窄通道和设备间自由穿梭。 RTK导航:本人积累相当经验GPS北斗RTK技术。用UM982实现类似阅兵一样的高精度导航。 视觉导航:利用摄像头捕捉环境图像,通过图像识别和处理技术识别地标、障碍物等关键信息。视觉导航在动态环境中表现出色,能够快速识别并调整路径以避开障碍物。融合导航:结合激光导航和视觉导航的优势,实现更高性能的导航定位。例如,在室外环境使用GPS进行粗定位,室内环境则通过Wi-Fi、蓝牙或UWB定位技术实现米级甚至亚米级的定位精度。 二、感知与检 气体检测:配备多种气体传感器,如氧气传感器、一氧化碳传感器、硫化氢传感器等,实时监测环境中的气体成分和浓度。一旦检测到异常,立即发出警报,防止中毒或爆炸事故。 温度检测:利用红外热成像技术检测设备表面的温度分布,快速发现过热等异常情况。这种非接触式检测方式安全便捷,适用于电力设备、化工设备等巡检。 图像识别:通过深度学习算法,利用摄像头采集的图像精准识别被检测目标的外观、形状及缺陷。例如,在机械零部件生产车间的巡检中,能够快速判断零件表面是否有裂纹、划痕等瑕疵。 声音检测:内置麦克风阵列采集周围声音信息,通过声学算法分析声音特征,判别设备运行是否正常。例如,电机在即将出现故障时可能会产生异常噪声,机器人能够及时捕捉并预警。 三、数据分析与决策 异常分析:基于基于MUSE Pi Pro开发板开发人工智能机器学习算法,对巡检过程中积累的大量正常数据进行建模,当新采集的数据与正常模型偏离时,迅速判断存在异常情况。故障预测:结合历史运行数据和当前实时监测数据,运用大数据技术和人工智能算法预测设备未来可能发生的故障。例如,提前计算出风力发电机组设备故障发生的概率和时间节点,安排维修保养工作。智能决策:基于规则的决策系统设置阈值和条件,当满足特定条件时触发相应动作。更高级的决策系统则采用强化学习算法,在复杂环境中学习最优决策策略。 四、通信与控制系统 无线通信技术:采用4G CAT1无线网络等稳定通信技术,确保机器人能够实时将采集到的巡检数据传输至中央控制系统。 智能控制系统:分布式控制系统根据不同传感器的输入进行协同决策,使机器人具备更高的环境适应性和任务执行能力。同时,支持自主决策与反馈机制,根据外部环境变化灵活调整任务执行方案。 五、续航技术 完成任务后通过导航自主回到充电站进行有线充电,确保长时间连续工作。
">

jf_57001260

13:5410-08
申请理由: 在化工生产模糊控制算法有六年多的学习和开发经验,曾设计开发过中天合创能源有限责任公司350万吨/年煤制甲醇项目基于PC端的模糊控制算法的开发,系统投入后运行正常、减少了操作工对相关工艺参数回路的调整频次、为公司节省了物料消耗。在工业及其自动化先进控制系统开发领域有丰富的开发经验,此次申请MUSE Pi Pro开发板(K1芯片)是为了将基于PC端的模糊控制算法相关程序移植到该开发板上,并将其用于中煤鄂尔多斯能源化工公司100万吨/年煤制甲醇项目上。 项目实施计划: 1、熟悉MUSE Pi Pro开发板和K1芯片的相关资料,对开发板和芯片进行快速入门。 2、搭建基于MUSE Pi Pro开发板模糊控制算法系统的平台。 3、将当前的模糊控制算法移植到基于MUSE Pi Pro开发板平台上。 4、将现有的操作工的操作记录导入到模糊控制算法中并进行相关训练。 5、训练完后投入使用、参数优化及项目分享。
">

jf_51350562

08:4810-06
在实验室测试鸿蒙机器人系统,ros2操控机器人,ai自主控制人形机器人。
">

chen000000009

01:1710-02
基于进迭时空K1的车载边缘计算终端的开发 计划使用带了进迭时空K1的MUSE Pi Pro开发板 进行 车载边缘计算终端 的研究。目前车上常见的辅助驾驶系统包括车载雷达,多个摄像头组成的车道偏离预警系统(LDW),前车碰撞预警系统(FCW)等。由于CPU的算力不足,目前车上这些平台多采用分立式的主机。 进迭时空K1平台可以提供足够强大的AI算力,同时完成360环视系统所需的图像拼接,并且在此基础上更进一步,在360度全方位图像上识别出周边的车辆以及行人,并针对可能出现的碰撞现象以及车道偏离进行提前预警。故计划使用MUSE Pi Pro做这方面的预研。 采用的技术框架包括通过以太网拉取多个IPC的视频流,并通过openCV实现图像拼接,Tensorflow神经网络实现在拼接好的图像上识别出周边的物体,包括车辆,行人,交通灯等。此外可以通过额外加一颗MCU实现CAN数据以及雷达数据的获取,测算出潜在的碰撞现象,进行提前预警。 后期可以在这个平台上引入V2X技术,通过拉取C-V2X终端的数据,进一步提升识别的准确性 试用计划 1、SDK部署,熟悉进迭时空K1的开发方式 2、以太网拉流功能 3、解码,AI处理功能开发
">

efans_1f4

18:4909-30
一、申请理由 本人任职于国内top级AI芯片公司,在大模型工程化、边缘 AI 计算领域有深入学习与实践积累,对模型压缩(量化、稀疏化)、推理引擎调优(llama.cpp、ONNXRuntime 等)有持续研究。关注到边缘场景下大模型本地化部署的需求与挑战,希望借助本次比赛,探索Qwen2.5-14B 在 K1 芯片(8GB 内存)上的高效落地路径,验证端侧大模型推理的可行性,并通过开源实践向社区分享技术成果。 K1 芯片的独特优势(8 核 RISC-V AI CPU、2 TOPS 算力、256bit RVV 1.0 向量扩展)为实现高性能、低功耗的本地大模型部署提供了理想平台。通过本项目,我将充分利用 K1 的硬件特性,结合进迭时空开源工具链,实现高效、低延迟的大模型本地化推理。 二、硬件平台分析 1. K1 芯片核心优势 高性能计算:8 核 RISC-V AI CPU,50K DMIPS 算力,单核 Specint2006 > 4.0/GHz 专用 AI 加速:2 TOPS AI 算力,支持本地大模型运行(>10 Tokens/S @1B 模型) 先进向量扩展:256bit RVV 1.0 标准,向量性能是 ARM NEON 的 150% 高能效设计:同负载场景功耗仅为同档芯片的 80% 丰富外设接口:集成 PCIe、USB、GMAC、SPI 等,满足多样化连接需求 工业级可靠性:支持 - 40°C~85°C 工作温度,适用于苛刻环境 2. MUSE Pi Pro 开发板特点 基于 K1 芯片的高性能单板计算机 大容量 DRAM 和存储空间 丰富的通用接口和扩展接口 40pin 多功能接口,支持 GPIO、UART、SPI、I2C 等 专为机器人、边缘计算、AIoT 等场景设计 三、软件生态与工具链 Bianbu Linux BSP:包含 OpenSBI、U-Boot、Linux 内核、根文件系统及示例代码 多操作系统支持:Bianbu OS(基于 Ubuntu 优化)、OpenHarmony、OpenWR 等 AI 框架支持:硬件加速的 ONNX Runtime、ollama 和 llama.cpp 机器人开发:支持 ROS2,提供机器人算法开发和调试工具 云端开发:Bianbu Cloud 平台支持远程开发调试 四、项目计划 ① 环境与工具链准备 深入分析 K1 芯片硬件特性,特别是 RISC-V 架构和 RVV 向量扩展 搭建基于 Bianbu OS 的开发环境,配置 llama.cpp 和 ONNXRuntime 建立性能基准测试平台,包括延迟、吞吐量和内存占用监控 ② 模型压缩与格式转换 采用 AWQ 或 GPTQ 技术对 Qwen2.5-14B 进行 INT4 量化,降低内存占用 针对 K1 架构特点优化量化参数,平衡模型质量和性能 将量化模型转换为 llama.cpp 支持的.gguf 格式和 ONNX 格式 ③ 多引擎基础部署与验证 在 llama.cpp 上实现基础推理功能,验证模型正确性 在 ONNXRuntime 上部署模型,利用 K1 的硬件加速能力 测试基础性能指标:首 token 延迟、平均 token 生成速度、内存占用 ④ K1 架构针对性优化 CPU 优化:利用 RVV 向量指令集优化核心算子 内存优化:实现模型分片加载,优化内存带宽利用 调度优化:针对 K1 8 核结构优化线程分配和任务调度 算子优化:融合 Transformer 层内计算,减少数据搬运 ⑤ 创新功能实现 长上下文优化:提出滑动窗口注意力机制,缓解长上下文性能下降 动态量化:根据输入特征动态调整量化精度 混合推理:结合 llama.cpp 和 ONNXRuntime 优势,实现任务自适应调度 五、性能目标 基于 K1 硬件特性和评分标准,设定以下性能目标: 模型质量:压缩后模型智商接近原始模型 Prehll 性能:MAC 利用率 > 10% Decode 性能:带宽利用率 > 55% 推理速度:首 token 延迟 <500ms,后续 token 生成速度> 20 tokens/s 内存占用:峰值内存 < 7.5GB,确保在 8GB 版本 K1 上稳定运行 六、创新点 RVV 指令集深度优化:充分利用 256bit 向量扩展,提升计算密集型算子性能 长上下文优化方案:创新性滑动窗口注意力机制,解决上下文增长导致的性能下降 混合推理引擎:根据任务特性自动选择最优推理引擎,平衡性能和质量 动态量化策略:针对不同输入特征动态调整量化精度,优化质量 / 性能平衡 七、测试与评估 质量评估:使用标准测试集评估模型压缩后的质量损失 性能测试:记录延迟、吞吐量、内存占用等关键指标 能效分析:评估不同优化策略下的功耗表现 对比分析:比较不同部署方案(llama.cpp vs ONNXRuntime)的优劣势 八、预期成果 技术成果:在 K1 上成功部署 Qwen2.5-14B,实现高性能本地推理 数据成果:详细的性能对比报告,包括不同量化精度、不同推理引擎的表现 开源成果:完整的部署流程、优化代码和文档,为社区提供可复用的技术参考 创新成果:针对 K1 架构的优化策略和长上下文处理方案
">

jf_12532622

10:5109-29
一、申请理由 本人在计算机视觉(图像识别、深度学习)与嵌入式系统开发领域积累了 2 年以上实践经验:曾参与工业零件缺陷检测的边缘计算项目,熟悉轻量级 CNN 模型(如 MobileNet、YOLO-Lite)的训练与部署;也有基于 RISC-V 架构开发板的开发经历,了解端侧设备的算力特性与优化方法。 3D 打印耗材的 “色彩 + 型号” 分类是行业痛点:不同型号(如 PLA、ABS、PETG)的耗材物理特性(熔点、收缩率)差异大,色彩更是直接影响打印效果;但人工分类不仅效率低,还易因视觉疲劳出现错误。K1 开发板基于 RISC-V 架构,兼具适配轻量级 AI 模型的算力与低功耗优势,非常适合在 “端侧”(无需依赖云端)实现实时图像识别。希望借助本次试用,结合 K1 的硬件性能完成耗材分类系统,并通过开源社区分享成果,推动 RISC-V 在边缘 AI+3D 打印场景的落地。 二、项目计划(分阶段实施,周期约 9 周) 阶段 1:开发环境与硬件熟悉(第 1-2 周) 开发环境搭建:完成 K1 开发板的系统烧录(如官方适配的 Linux 发行版),配置交叉编译工具链;建立 PC 与开发板的调试通道(串口、SSH、ADB 等)。 硬件接口验证: 连接 USB/MIPI 摄像头模块,测试图像采集功能(分辨率、帧率适配); 预留执行机构接口(如 I2C 控制小型舵机,为后续 “自动分拣” 拓展做准备),验证 GPIO、PWM 等功能。 阶段 2:数据集构建与预处理(第 3-4 周) 数据采集: 收集10 类典型 3D 打印耗材(涵盖 PLA、ABS、PETG、TPU 等型号,每类选取红、黄、蓝、黑、白等 5 种以上色彩);每类耗材采集≥200 张图像,覆盖 “不同光照(强光 / 弱光)、不同角度(0°/45°/90°)、不同背景(桌面 / 工作台)” 等场景,模拟实际使用环境。 数据标注与增强: 用LabelImg工具对图像标注(目标为 “耗材型号 + 色彩”,如PLA-红色); 通过 “旋转、亮度调整、添加高斯噪声、镜像” 等方式做数据增强,将每类耗材的有效数据集扩充至≥500 张,提升模型泛化能力。 阶段 3:模型训练与端侧迁移(第 5-6 周) 模型选择与训练: 选用轻量级 CNN 模型(如 MobileNetV2、ShuffleNetV2)(兼顾精度与计算开销),在 PC 端(借助 GPU 加速)基于 PyTorch/TensorFlow 训练模型,以 “耗材型号 + 色彩” 为联合分类目标,迭代优化至验证集准确率≥90%。 模型量化与部署: 用模型量化工具(如 TensorFlow Lite 的post-training quantization)将模型转换为int8精度(减小模型体积、提升端侧推理速度);将量化后的模型移植到 K1 开发板,编写推理代码(如基于 Python+OpenCV 读取摄像头图像,输入模型得到分类结果)。 阶段 4:系统集成与测试优化(第 7-8 周) 硬件系统集成: 搭建 “摄像头采集 → K1 开发板推理 → 结果显示 / 执行机构联动” 的完整系统:将摄像头对准耗材摆放区域,开发板实时输出 “型号 + 色彩” 分类结果(如串口打印、LCD 显示);若预留了舵机接口,可测试 “识别后触发分拣动作” 的联动逻辑。 多场景测试与优化: 在 “不同光照、耗材密集摆放、部分遮挡” 等场景下测试系统,统计识别准确率、单帧推理延迟等指标;针对 “相似色彩(如深红与酒红)、相似型号(如 PLA 与 PLA+)” 的混淆案例,回标数据并微调模型,迭代后要求综合识别准确率≥92%,单帧推理延迟≤200ms。 阶段 5:开源与成果拓展(第 9 周及以后) 开源分享: 将 “数据集标注规则、模型训练代码、开发板部署脚本、硬件连接说明” 等整理为完整文档,上传至 GitHub 仓库;在发烧友论坛发布项目教程,分享从 “环境搭建→模型部署→实际测试” 的全流程经验。 应用拓展: 探索与 3D 打印机的联动(如识别耗材后,自动匹配打印参数);收集社区反馈,持续优化模型与代码,适配更多耗材类型(如尼龙、碳纤维耗材)。 三、预期成果 技术成果:完成一套基于 K1 开发板的 3D 打印耗材 “色彩 + 型号” 自动分类系统,实现单帧推理延迟≤200ms,综合识别准确率≥92%,满足 “端侧实时分类” 的需求。 开源价值:形成完整的开源项目,为 RISC-V 开发者、3D 打印爱好者提供 “边缘 AI+3D 打印” 的实践案例,降低技术跨界融合的门槛。 应用潜力:验证 K1 开发板在 “端侧图像识别” 场景的实用性,为类似需求(如电子元件分类、五金件分拣)提供可参考的技术方案。 通过分阶段的技术落地与开源分享,既能充分验证 K1 开发板的性能,也能为行业带来兼具实用性与创新性的解决方案。
">

jf_21530603

10:4609-29
一、申请理由 本人在计算机视觉(图像识别、深度学习)与嵌入式系统开发领域积累了 2 年以上实践经验:曾参与工业零件缺陷检测的边缘计算项目,熟悉轻量级 CNN 模型(如 MobileNet、YOLO-Lite)的训练与部署;也有基于 RISC-V 架构开发板的开发经历,了解端侧设备的算力特性与优化方法。 3D 打印耗材的 “色彩 + 型号” 分类是行业痛点:不同型号(如 PLA、ABS、PETG)的耗材物理特性(熔点、收缩率)差异大,色彩更是直接影响打印效果;但人工分类不仅效率低,还易因视觉疲劳出现错误。K1 开发板基于 RISC-V 架构,兼具适配轻量级 AI 模型的算力与低功耗优势,非常适合在 “端侧”(无需依赖云端)实现实时图像识别。希望借助本次试用,结合 K1 的硬件性能完成耗材分类系统,并通过开源社区分享成果,推动 RISC-V 在边缘 AI+3D 打印场景的落地。 二、项目计划(分阶段实施,周期约 9 周) 阶段 1:开发环境与硬件熟悉(第 1-2 周) 开发环境搭建:完成 K1 开发板的系统烧录(如官方适配的 Linux 发行版),配置交叉编译工具链;建立 PC 与开发板的调试通道(串口、SSH、ADB 等)。 硬件接口验证: 连接 USB/MIPI 摄像头模块,测试图像采集功能(分辨率、帧率适配); 预留执行机构接口(如 I2C 控制小型舵机,为后续 “自动分拣” 拓展做准备),验证 GPIO、PWM 等功能。 阶段 2:数据集构建与预处理(第 3-4 周) 数据采集: 收集10 类典型 3D 打印耗材(涵盖 PLA、ABS、PETG、TPU 等型号,每类选取红、黄、蓝、黑、白等 5 种以上色彩);每类耗材采集≥200 张图像,覆盖 “不同光照(强光 / 弱光)、不同角度(0°/45°/90°)、不同背景(桌面 / 工作台)” 等场景,模拟实际使用环境。 数据标注与增强: 用LabelImg工具对图像标注(目标为 “耗材型号 + 色彩”,如PLA-红色); 通过 “旋转、亮度调整、添加高斯噪声、镜像” 等方式做数据增强,将每类耗材的有效数据集扩充至≥500 张,提升模型泛化能力。 阶段 3:模型训练与端侧迁移(第 5-6 周) 模型选择与训练: 选用轻量级 CNN 模型(如 MobileNetV2、ShuffleNetV2)(兼顾精度与计算开销),在 PC 端(借助 GPU 加速)基于 PyTorch/TensorFlow 训练模型,以 “耗材型号 + 色彩” 为联合分类目标,迭代优化至验证集准确率≥90%。 模型量化与部署: 用模型量化工具(如 TensorFlow Lite 的post-training quantization)将模型转换为int8精度(减小模型体积、提升端侧推理速度);将量化后的模型移植到 K1 开发板,编写推理代码(如基于 Python+OpenCV 读取摄像头图像,输入模型得到分类结果)。 阶段 4:系统集成与测试优化(第 7-8 周) 硬件系统集成: 搭建 “摄像头采集 → K1 开发板推理 → 结果显示 / 执行机构联动” 的完整系统:将摄像头对准耗材摆放区域,开发板实时输出 “型号 + 色彩” 分类结果(如串口打印、LCD 显示);若预留了舵机接口,可测试 “识别后触发分拣动作” 的联动逻辑。 多场景测试与优化: 在 “不同光照、耗材密集摆放、部分遮挡” 等场景下测试系统,统计识别准确率、单帧推理延迟等指标;针对 “相似色彩(如深红与酒红)、相似型号(如 PLA 与 PLA+)” 的混淆案例,回标数据并微调模型,迭代后要求综合识别准确率≥92%,单帧推理延迟≤200ms。 阶段 5:开源与成果拓展(第 9 周及以后) 开源分享: 将 “数据集标注规则、模型训练代码、开发板部署脚本、硬件连接说明” 等整理为完整文档,上传至 GitHub 仓库;在发烧友论坛发布项目教程,分享从 “环境搭建→模型部署→实际测试” 的全流程经验。 应用拓展: 探索与 3D 打印机的联动(如识别耗材后,自动匹配打印参数);收集社区反馈,持续优化模型与代码,适配更多耗材类型(如尼龙、碳纤维耗材)。 三、预期成果 技术成果:完成一套基于 K1 开发板的 3D 打印耗材 “色彩 + 型号” 自动分类系统,实现单帧推理延迟≤200ms,综合识别准确率≥92%,满足 “端侧实时分类” 的需求。 开源价值:形成完整的开源项目,为 RISC-V 开发者、3D 打印爱好者提供 “边缘 AI+3D 打印” 的实践案例,降低技术跨界融合的门槛。 应用潜力:验证 K1 开发板在 “端侧图像识别” 场景的实用性,为类似需求(如电子元件分类、五金件分拣)提供可参考的技术方案。 通过分阶段的技术落地与开源分享,既能充分验证 K1 开发板的性能,也能为行业带来兼具实用性与创新性的解决方案。
">

人字拖大魔王

15:4409-28
本项目利用MUSE Pi Pro的8核RISC-V架构与2TOPS AI算力,构建一套融合​​视觉识别、环境传感与语音交互​​的智能园艺管理系统。系统通过本地化部署轻量级大模型(1B参数量),实现对植物健康状态的实时监测、病虫害预警、环境参数自动调节及语音控制,解决传统农业依赖人工经验、响应滞后的问题。创新点在于​​多模态数据融合决策​​与​​低功耗边缘推理​​,适用于家庭园艺、温室种植等场景
">

jf_08516321

13:5409-28
申请理由 本人在智慧农业领域有二年的学习和开发经验,曾设计过类似的农业农田大棚监测系统,想使用这个开发版,完成数据的监测处理
">

jf_53002984

15:3409-27
我想用来部署深度学习的模型,预计可以检测到燃油或者其他液体中的粒子含量和粒子大小
">

efans_d1af84

21:2609-25
申请理由 本项目拟基于进迭时空K1开发板,结合其2TOPS AI算力和本地大模型能力,开发一个融合 视觉识别+语音指令+轻量LLM任务规划的智能助手。该系统将能通过摄像头识别物体、通过语音接收指令,并由本地大模型生成交互逻辑,实现真正的“看得见、听得懂、能执行”的AI终端,可以现场演示,并计划通过驱动本课题组已有的机械臂来实现更高阶的操作,实现一定程度的具身智能。 项目计划 首先,熟悉K1开发环境,快速部署Bianbu OS与AI SDK。 然后,搭建多模态输入链路:摄像头(CV)、麦克风(ASR)。 其次,本地部署轻量化LLM,结合ONNX Runtime,实现语义理解与指令解析。 然后,构建人机交互应用:例如用户说“识别桌上的物品并总结”,终端完成识别+语音播报。 在时间精力允许的情况下,结合机械臂展开其它项目。 预期成果 一个可实时运行的“视觉+语音”智能助手原型终端。 演示功能:物体识别+语音交互+本地大模型规划。 输出项目总结文档与展示视频,分享开发经验。
">

h1654156022.1620

19:1609-25
1.项目名称:电力巡检无人机 2.预期成果:无人机机场一台,巡检无人机一架,定位监控系统一套,相关论文若干
">

jf_42323235

21:2809-24
参赛赛题:基于K1的人工智能终端及应用开发 申请理由:本人在AR领域深耕四年,参与过AR教育实训系统开发,主导设计过基于SLAM技术的开源AR导航设备,对三维重建、虚实融合渲染、AR场景的多模态交互技术有深入研究。期望依托本次大赛的MUSE Pi Pro开发板,打造一款基于RISC-V架构的开源AR智能终端,探索自主芯片在增强现实领域的应用潜力,完善项目的技术开源生态。 2.项目名称:基于RISC-V的边缘端人工智能图像识别与处理系统 3. 项目计划 根据开发板文档,对MUSE Pi Pro快速入门,熟悉硬件接口与开发环境 学习RISC-V架构下AI模型部署工具链,掌握模型轻量化与推理优化方法 基于MUSE Pi Pro的“边缘端人工智能图像识别与处理系统”项目筹备(分析软硬件需求,确定图像识别场景与模型选型) 项目开展,按时间节点完成模型部署、功能开发与系统集成 项目调试、性能优化,并在发烧友论坛分享技术细节与开源成果 4.预计成果 分享项目从需求分析、技术实现到成果展示的全流程,输出基于RISC-V架构的边缘AI图像识别系统开源方案,包括代码仓库、技术文档与演示视频,推动RISC-V在边缘智能视觉领域的创新应用。
">

jf_34163402

21:1609-24
试用计划 申请理由 本人在嵌入式与 AR 技术融合领域有一定学习和实践基础,对 AR 设备的硬件适配、功能开发有浓厚兴趣与探索热情。MUSE Pi Pro 开发板性能优异、拓展性强,借助发烧友论坛和 MUSE Pi Pro 平台,我希望能充分利用其优势,开展 AR 智能交互系统项目的开发,推动相关技术的实践与开源分享。 项目计划 ①根据 MUSE Pi Pro 开发板文档,进行快速入门,熟悉开发板的硬件接口、系统环境等基础内容。②深入学习 MUSE Pi Pro 的软件生态与系统架构,研究相关实际应用案例,掌握基于该开发板的开发流程。③开展基于 MUSE Pi Pro 的 AR 智能交互系统项目筹备,分析项目所需的软硬件需求,包括 AR 算法适配、硬件外设选型等。④按照时间计划推进项目开展,进行系统的开发与功能实现。⑤对项目进行调试、优化,确保系统稳定运行,并在相关平台分享项目的开展、实施及成果过程。 预计成果 分享基于 MUSE Pi Pro 开发板的 AR 智能交互系统项目的开展、实施、结果过程,展示项目最终实现的 AR 智能交互功能及效果。
">

sciotech

15:0209-24
申请理由: 传统的学习机只能使用固定模式和有限知识,对学生进行辅导,而手机的通用性,让孩子有利用其玩耍的幻想。设计ai学习机,既满足家长的防范性,又能利用ai完成扩展性。之前已有十多年的设备研发经验和相关的ai导入知识,想机遇LattePanda平台,完善及验证该设计。 项目计划: 在必要学习该平台的特性及开发过程后,进行外围设备采购,测试平台搭建及相关人员培训。设计学习案例群,导入设计,基础训练方法验证,端云结合验证,最后输出样机及相关文档。
">

jf_40033211

13:4809-24
申请理由 10年Linux 开发用户,7年大数据和 AI 研发经验,熟悉大模型边缘化部署,现需验证RISC-V架构在轻量级模型上的落地效果。 2. 计划概述 适配Bianbu Linux,拉通K1 NPU+RVV推理链路 完成1B级大模型量化、部署与性能评估 输出可复现的代码与测评报告,回馈社区 3. 预计成果 跑通大模型端侧 Demo+自研的 Agent 应用+性能数据,为后续产品化提供依据
">

jf_24292119

12:3809-24
测试性能
">
申请理由 本人目前从事边缘计算平台相关的深度学习及视频图像处理工作(FPGA/RK3588/A311D/NXP等),值此机会借助电子发烧友论坛申请MUSE Pi Pro做试用评测,主体面向影音处理和AI模型移植。 3.测试计划 3.1 开箱评测,主要包括板卡特性、硬件资源分析和功能演示。 3.2 Windows功能开发验证: a.验证I2C/SPI/USB接口功能; b.测试常规软件功能,例如办公、影音; c.测试功能,例如NES模拟器、War-III等. 3.3 Linux功能开发验证(重点测试功能): a.基础功能测试,包括CPU、DDR、USB、I2C、SPI、USB等测试; b.常见python/C++算法测试,包括YOLO、SSD等图像视频处理算法(分类识别/目标检测); c.基于FFMPEG的视频处理功能测试; d.基于USB-Camera的OPENCV功能测试,实现视频推流DEMO; e.移植讯飞星火语音模型,探索AI语音功能; 3.4 测试总结,包括文字、图片、视频。 计划使用MUSE Pi Pro开发用于桌面机械臂定位识别,配合RKNN1框架,实现识别运算的加速,实现对视野目标的搜索2D定位。并进行测试双目模组驱动、三维重建的方案。 本人并对MUSE Pi Pro推出的RKNN1、RKNN2开发有一定接触和开发经验,开发经验分享在其他平台,就不在此列出。 1. 烧写系统,配置SSH等开发环境 2. 跑demo,测试RKNN1 3. 驱动双目模组,获取双目图像; 4. 评估畸变矫正和双目标定;探索基于ROS camera_calibration包的双目标定 5. 使用opencv和双极线法进行三维重建实验 预计成果: 展示RKNN1框架下驱动NPU加速神经网络应用的帖子与视频,并横向对比手上正在开发测试、基于RKNN2框架的MUSE Pi Pro开发板。展示双目驱动三维重建的效果,编写帖子和录制视频。
">

jf_62801854

09:5109-24
1,研究一下板子原理图 2 ,搭建开发环境,写一些简单app 测试一下运行稳定性 3, 搭建大语言模型,实现ai对话并解析回答

申请合作