こんにちは、スタッフのdartsmanです。
お知らせが遅くなってしまいましたが、e-AI(embedded Artificial Intelligence)用ツール、e-AIトランスレータの新バージョンV2.2.0を公開しました。統合開発環境e2 studioのプラグインとして動作するツールです。
今回の新機能である「CMSIS_INT8」に関しては、6月~7月に解説ブログや紹介動画の公開も予定しています。ブログや動画を公開しましたら別途お知らせします。
[e-AIトランスレータ V2.2.0の主な新機能]
・8ビット量子化されたTensorFlow Lite形式のモデルを高速に推論動作可能な出力形式「CMSIS_INT8」 を追加しました。RAファミリ、RXファミリで活用できます。 今回の機能追加により、TensorFlow Liteで8bit量子化されたモデルに対して以下のような変換が可能 となりました。 - 出力形式「CMSIS_INT8」:推論速度を優先して変換 - 出力形式「C_INT8」:ROM/RAM使用量を優先して変換
・入力データの形式と出力データの形式が異なるTensorFlow Lite形式のモデルに対応しました。 (例 入力:8bit signed int、出力:32bit float)
・TensorFlow Liteで8bit量子化されたモデルをソースファイルに変換した際に、CC-RXコンパイラおよび CC-RLコンパイラが使用可能になりました。
[e-AIトランスレータのダウンロード]
www.renesas.com/e-ai-tool
※今バージョンのe-AIトランスレータでは、CaffeやTensorFlowの旧API(tf.nn やtf.layers 等のAPI)を サポートしていません。これらのフレームワークをご使用の方はe-AIトランスレータ V1.6.0をご使用ください。