运行时选项 - 3.5 简体中文

Vitis AI Library 用户指南 (UG1354)

Document ID
UG1354
Release Date
2023-06-29
Version
3.5 简体中文

Vitis AI ONNX Runtime 集成了用于编译模型计算图并充当微码可执行文件的编译器。该可执行文件部署在目标加速器上。

启动 ONNX Runtime 会话时就会执行模型编译,并且必须在推断首通之前完成编译。编译所需时间长度不尽相同,但可能需要数分钟才能完成。完成模型编译后,模型可执行文件会保存到缓存中,供后续各轮推断运行时使用,您可按需选择使用缓存的可执行模型(请参阅下文获取详细信息)。

您可设置多个运行时变量用于配置推断会话,如下表所示。config_file 变量并非可选,必须将其设置为指向配置文件所在位置。cacheDir 变量和 cacheKey 变量均为可选。

表 1. 运行时变量
运行时变量 默认值 详细信息
config_file "" 必需。表示配置文件路径,配置文件 vaip_config.json 包含在 vitis_ai_2023.1-r3.5.0.tar.gz 内
cacheDir /tmp/{user}/vaip/.cache/ 可选。高速缓存目录
cacheKey {onnx_model_md5} 可选。表示用于区分不同模型的高速缓存密钥。

最终高速缓存目录为 {cacheDir}/{cacheKey}。此外,还可设置环境变量以自定义 Vitis AI Execution Provider。

表 2. 环境变量
环境变量 默认值 详细信息
XLNX_ENABLE_CACHE 1 对应是否使用高速缓存,如果设为 0,则将忽略缓存的可执行文件,并且将重新编译模型。
XLNX_CACHE_DIR /tmp/$USER/vaip/.cache/{onnx_model_md5} 可选。配置高速缓存路径。