OpenVINO™工具套件中用于模型优化以及推理加速的组件是()?
A.模型优化器
B.推理引擎
C.参考实例
D.模型优化器和推理引擎
A.模型优化器
B.推理引擎
C.参考实例
D.模型优化器和推理引擎
A.推理引擎(InferenceEngine)支持硬件指令集模型加速,然后进入模型优化环节
B.对OpenCV图像处理库进行指令集优化,显著提升性能
C.推理引擎将给定的模型转化为标准的IntermediateRepresentation(IR)
D.推理引擎使用插件架构,每个插件的API各不相同
A.读取模型优化器的中间文件进行处理
B.直接读入新数据到中间文件进行推理计算
C.可以使用多个硬件共同承担推理计算任务,提高效率
D.利用训练好的模型,支持用户做高效的机器视觉任务,支持边缘计算的时间要求
A.OpenVINO主要用于模型训练过程优化
B.OpenVINO主要用于模型推断过程优化
C.模型训练过程越长,在OpenVINO的推断过程就会越慢
D.模型训练过程越短,在OpenVINO的推断过程就会越慢
流体力学研究中,通常采用三种液体力学模型进行简化分析推理,不属于这三种液体力学模型的是
A牛顿液体模型;B理想液体模型;
C不可压缩液体模型;D连续介质模型。
A.模型优化后的bin文件可以再次进行编辑和修改
B.模型优化后的mapping文件中定义了模型输入层批大小
C.模型优化后的mapping文件中定义了模型的meta_data信息
D.模型优化后的mapping文件定义了模型转化前后各层的对应关系
A.BIM模型提供了建筑物存在的实际信息,包括几何信息、物理信息、规则信息,还提供了建筑物变化以后的实际存在。
B.BIM模型一旦创建完毕就不再进行改变
C.BIM及其配套的各种优化工具能够对复杂项目进行优化
D.BIM模型是一个不断优化的过程
A.exec_net.infer()方法是对推理结果的分析
B.exec_net.infer()方法的输入参数是模型推理的结果
C.exec_net.infer()方法的输出结果是模型的推理结果
D.exec_net.infer()方法直接输出分类标签值
A.模型优化mo_tf.py输入模型格式可以为PB格式
B.型优化mo_tf.py输入模型格式可以为H5格式
C.模型优化mo_tf.py输入模型格式可以为XML格式
D.其他说法都正确