1. 基于RISC-V的开源AI MPU/加速器
**(1) SiFive Intelligence系列**
- 特点:SiFive提供开源的RISC-V IP核,支持AI扩展指令集(如向量扩展V扩展、自定义指令)。
- 开源内容:部分RISC-V核设计(如X280)可定制AI加速指令。
- 适用场景:边缘推理、TinyML。
- 链接:SiFive GitHub
(2) CORE-V(OpenHW Group)
- 特点:开源RISC-V处理器家族,支持AI加速扩展(如DSP/向量指令)。
- 代表IP:CV32E40P(支持自定义AI协处理器)。
- 适用场景:低功耗嵌入式AI。
- 链接:OpenHW Group
(3) VEGA(ETH Zurich)
- 特点:开源RISC-V SoC,集成自定义AI加速单元(支持INT8/FP16)。
- 性能:1-4 TOPS(取决于配置)。
- 开源内容:RTL代码、工具链。
- 链接:VEGA GitHub
2. 开源AI加速器IP核
(1) NVDLA(NVIDIA Deep Learning Accelerator)
- 特点:NVIDIA开源的深度学习加速器IP,支持CNN推理。
- 开源内容:完整RTL代码(Verilog)、编译器工具链。
- 兼容性:可集成到ARM/RISC-V SoC中。
- 局限:仅支持推理,无训练功能。
- 链接:NVDLA GitHub
(2) TENSAI(开源AI加速器)
- 特点:轻量级开源AI加速器,支持INT8/FP16。
- 适用场景:物联网、边缘设备。
- 开源内容:RTL设计、测试用例。
- 链接:TENSAI GitHub
(3) OpenAI Accelerator(社区项目)
- 特点:基于Chisel设计的开源AI加速器,支持灵活配置。
- 性能:可扩展至多TOPS。
- 链接:GitHub示例
3. 开源SoC平台(集成AI加速)
(1) PULP(Parallel Ultra Low Power)
- 特点:苏黎世联邦理工学院(ETH)开源的RISC-V多核SoC平台,支持AI加速扩展。
- 代表项目:
- GAP9(GreenWaves商用芯片的学术版,开源RTL)
- Hero(集成自定义AI加速单元)
- 适用场景:传感器端AI、TinyML。
- 链接:PULP Platform
(2) OpenTitan(安全AI SoC)
- 特点:谷歌支持的开源安全芯片项目,可集成AI加速模块。
- 适用场景:安全敏感的AI边缘设备。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:bangqikeconnect@gmail.com