# Tensorflow Lite Micro 软件包 中文版 | [English Version](./README_en.md) ## 1、介绍 Tensorflow Lite Micro软件包(简称TFLu)是针对RT-Thread实时操作系统移植的嵌入式推理框架, 主要解决在资源, 功耗, 性能等资源受限的嵌入式系统中, 部署基于Tensorflow Lite框架实现深度学习模型任务 目前计划进行调优的平台 : - [x] 树莓派4 ( Cortex A72内核, 64位, gcc-arm-8.3交叉工具链 ) : RAM 28K, Flash 690K 仓库链接: https://github.com/QingChuanWS/raspi4-tfliteMicro - [x] ART-Pi (STM32H750, 32位, gcc-arm-none-eabi-9-2019 ) : RAM 25K, Flash 542K - [ ] Nucleo-STM32L496(STM32L496, 32位, gcc-arm-none-eabi-9-2019) - [ ] Kendryte K210(K210, 64位, riscv架构) ### 1.1 目录结构 | 名称 | 说明 | | ---- | :--- | | docs | 文档目录 | | examples | Tensorflow Lite Micro demo | | third_party | Tensorflow Lite Micro 依赖的第三方库 | | tensorflow | Tensorflow Lite Micro 推理框架 | ### 1.2 许可证 Tensorflow Lite Micro package 遵循 LGPLv2.1 许可,详见 `LICENSE` 文件。 ### 1.3 依赖 RT-Thread 3.0+ ## 2、如何打开 Tensorflow Lite Micro 使用 Tensorflow Lite Micro package 需要在 RT-Thread 的包管理器中选择它,具体路径如下: ``` RT-Thread online packages miscellaneous packages ---> [*] Tensorflow Lite Micro: a lightweight deep learning end-test inference framework for RT-Thread operating system. ``` 然后让 RT-Thread 的包管理器自动更新,或者使用 `pkgs --update` 命令更新包到 BSP 中。 ## 3、使用 Tensorflow Lite Micro 在成功下载 Tensorflow Lite Micro package 之后: - 首先通过RT-Thread 的 env 工具中 menuconfig 进行功能配置, 其中在 menuconfig 中的配置选项为: ``` RT-Thread online packages miscellaneous packages ---> [*] Tensorflow Lite Micro: a lightweight deep learning end-test inference framework for RT-Thread operating system. Version(latest) ---> Select Offical Example(Enable Tensorflow Lite Micro aduio example) ---> Select Tensorflow Lite Operations Type (Using Tensorflow Lite reference operations) ---> ``` 其中, Select Offical Example 中有两个选项: ``` ( ) Enable Tensorflow Lite Micro audio example (X) No Tensorflow Lite Micro example ``` 注 : audio example 是执行官方携带的语音示例, No example 则是不集成 example 文件, 只使用 Tensorflow Lite Micro 标准框架. (注:默认不开启语音实例) - 如果选择了语音示例, 请将example文件夹下的audio_main.cc文件拷贝到工程的Application目录中, 然后编译, 烧录/下载查看效果了 Select Tensorflow Lite Operations Type 中有两个选项: ``` ( ) Using Tensorflow Lite reference operations (X) Using Tensorflow Lite CMSIS NN operations ``` - reference operation 对应的是 TFLMicro 的通用算子库,其中的各类算子实现与硬件平台隔离,具备良好的可移植性,但是运行速度较慢。 - CMSIS NN operations 对应的是 TFLMicro 基于CMSIS-NN 库进行二次开发的算子库,对ARM Cortex M4,M7 有大幅加速. **使用的有关注意事项请参照第四部分!!** **注意:** - Tensorflow Lite Micro 框架中的模块较多,使用之前请先参考 [introduction.md ](introduction.md), 通过 [user-guide.md](user-guide.md) 来了解基本使用流程流程。 * API 手册可以访问[此链接](docs/api.md), 其中提供了目前支持算子的情况 * 更多文档位于 [`docs`](/docs) 下,使用前 **务必查看** ## 4、注意事项 - 关于`Using Tensorflow Lite CMSIS NN operations `选项: - CMSIS-NN 对于算子的优化主要针对 ARM Cortex M4 以上的 ARM 内核 ( 因为其搭载了DSP, FPU等硬件加速部件) 进行计算优化, M4 以下的 MCU 不建议使用该软件包。 - CMSIS-NN 的优化目前只提供了M系列的MCU;ARM Cortex A系列, R系列不应应用该选项. - 目前CMSIS NN算子还处在测试阶段, 可能存在问题. - 本软件包在运行时会占用16KB RAM空间, 同时自带的语音识别案例在运行时总共占用22KB内存, **请注意通过menuconfig来修改主函数栈的大小以及内存管理算法 !** ## 5、联系方式 & 感谢 * 维护:QingChuanWS * 主页:https://github.com/QingChuanWS * 欢迎各位developer使用该组件并提出自己的建议, 我会认真听取并不断改进. 您的支持就是我最大的动力