Vitis AI ONNX Runtime にはコンパイラが統合されており、このコンパイラでモデル グラフと重みをマイクロコード形式の実行ファイルにコンパイルします。この実行ファイルをターゲット アクセラレータ上で運用します。
モデルは ONNX Runtime セッションを開始するとコンパイルされ、1 回目の推論実行前にはコンパイルが完了している必要があります。コンパイルに必要な時間は不定で、数分かかることがあります。モデルのコンパイルが完了したら、モデルの実行ファイルがキャッシュに格納されます。その後の推論には、キャッシュしたファイルでモデルを実行できるオプションがあります (詳細は後述)。
次の表に、推論セッションの設定に使用する Runtime の変数を示します。config_file
は必須の変数で、これを使用してコンフィギュレーション ファイルの場所を設定する必要があります。変数 cacheDir
と cacheKey
はオプションです。
Runtime の変数 | デフォルト値 | 詳細 |
---|---|---|
config_file | "" | 必須。コンフィギュレーション ファイルのパス。コンフィギュレーション ファイル vaip_config.json は vitis_ai_2023.1-r3.5.0.tar.gz に含まれます。 |
cacheDir | /tmp/{user}/vaip/.cache/ | オプション。キャッシュ ディレクトリ |
cacheKey | {onnx_model_md5} | オプション。モデルの種類を区別するために使用するキャッシュ キー。 |
最終的なキャッシュ ディレクトリは {cacheDir}/{cacheKey} です。また、環境変数を設定して Vitis AI 実行プロバイダー (EP) をカスタマイズすることもできます。
環境変数 | デフォルト値 | 詳細 |
---|---|---|
XLNX_ENABLE_CACHE | 1 | キャッシュを使用するかどうかを設定します。0 の場合、キャッシュ内にある実行ファイルを無視してモデルが再コンパイルされます。 |
XLNX_CACHE_DIR | /tmp/$USER/vaip/.cache/{onnx_model_md5} | オプション。キャッシュのパスを設定します。 |