e-AIトランスレータ V2.2.0公開のお知らせ

こんにちは、スタッフのdartsmanです。

お知らせが遅くなってしまいましたが、e-AI(embedded Artificial Intelligence)用ツール、
e-AIトランスレータの新バージョンV2.2.0を公開しました。
統合開発環境e2 studioのプラグインとして動作するツールです。

今回の新機能である「CMSIS_INT8」に関しては、6月~7月に解説ブログや紹介動画の公開も
予定しています。ブログや動画を公開しましたら別途お知らせします。

[e-AIトランスレータ V2.2.0の主な新機能]

・8ビット量子化されたTensorFlow Lite形式のモデルを高速に推論動作可能な出力形式「CMSIS_INT8」
 を追加しました。RAファミリ、RXファミリで活用できます。
 今回の機能追加により、TensorFlow Liteで8bit量子化されたモデルに対して以下のような変換が可能
 となりました。
 - 出力形式「CMSIS_INT8」:推論速度を優先して変換
 - 出力形式「C_INT8」:ROM/RAM使用量を優先して変換

・入力データの形式と出力データの形式が異なるTensorFlow Lite形式のモデルに対応しました。
 (例 入力:8bit signed int、出力:32bit float)

・TensorFlow Liteで8bit量子化されたモデルをソースファイルに変換した際に、CC-RXコンパイラおよび
 CC-RLコンパイラが使用可能になりました。

[e-AIトランスレータのダウンロード]

www.renesas.com/e-ai-tool

※今バージョンのe-AIトランスレータでは、CaffeやTensorFlowの旧API(tf.nn やtf.layers 等のAPI)を
 サポートしていません。これらのフレームワークをご使用の方はe-AIトランスレータ V1.6.0をご使用ください。