OpenVINO 是intel针对intel的各硬件(CPU、Moviduis等)在 deployment 环节(inference)进行的性能优化的软件;
TensorRT 是NVIDIA针对NVIDIA GPU在 deployment 环节(inference)进行的性能优化的软件;
deployment 指的是如何将深度学习的模型跑在各种硬件平台上。
TVM 出现的动机:因为深度学习中ASIC芯片的设计并不是难事,但由于深度学习中新硬件的出现,如TPU、NPU等,需要重写这些芯片的上层整个软件栈,比如指令性、主流的深度学习框架等,这是繁琐复杂的工程。
TVM Stack Goal:针对各种CPU、GPU和ASIC等深度学习加速器,开发全栈的深度学习编译器 (从硬件到最终的软件框架)。
上层用户的视角:TVM frontend 前端拿到不同框架的模型后,通过 TVM 编译器编译出 TVM 的模型,然后就能跑在不同的设备上。
为什么这是一件难事:(1)需要与手动优化库进行竞争,TVM 采用的方案是自动优化的方法要比手动的还好(2)需要有前沿的全栈的优化研究 TensorFlow中的XLA主要是对TPU进行的优化,所以一般在GPU上是拼不过cuDNN的。 JIT
TVM Overview 综述
(1)High-level optimization:Computational Graph Optimization,包括 operater fusion(layer fusion、tensor fusion)、memory plan、data layout transform (nchw/nhwc等哪种是最优)等,但图优化需要针对每一种硬件、不同的data layout、不同的数据精度、线程模型等都进行优化操作,但这是相当繁琐的事,所以出现了第二层和第三层。
(2)Tensor Expression Language:主要做的事是描述tensor的计算,使得计算可以使用特殊的操作,比如AVX、TPU指令等。解决不同硬件的差异。
(3)Schedule Optimization Space:整理和总结目前所有的手动优化方案,并放入这个可以供 TVM 进行调度的优化库中。解决data layout、数据精度、线程模型等问题。所以这个搜索空间就包括了所有的手动优化方案,但这个方案的体量是很庞大的,如 1 billion。如何在这个庞大的优化库中搜索到最优的实现,就出现了第四层。 为什么机器优化的方法会比人手动优化的更快?因为机器可以尝试所有的优化方案,而人的优化时间是有限的,不能尝试很多的优化方法。
(4)AutoTVM,Optimize Tensor Operators using Learning:最大的问题是不可能将庞大的优化方法都试一遍,所以通过机器学习的方式,一开始需要将你的模型放在目标设备上进行测试跑分,然后通过优化空间中不同的优化方法对这个模型进行优化后,再次在设备上跑分,得到了优化方法与优化结果的数据,并由此建立一个cost model,用于评估优化方法与优化结果之间的关系,所以最终可以从这个模型中得到最优的优化方法。目前可以查看 AutoTVM API 得到 TVM 的优化方法。最后是模型针对的硬件,如何集成入TVM? TVM RPC:通过远程调用的方式,将你的模型部署到远程目标板或集群上,进行远程调试,如手机。
(5)VTA:开源的硬件加速器栈,包括VTA JIT runtime(实时生成的指令能与进行TVM通信)、VTA ISA、VTA Micro-Architecture以及各硬件,如FPGA等。 查看 tvm 的 discusss 和 roadmap
当前的TVM只支持inference,在今天2019年9月之后会加入training的相关。
Step 1:TVM 视频介绍
https://www.bilibili.com/video/av29521815/
Step 2:研读 TVM 论文
原文:https://www.usenix.org/system/files/osdi18-chen.pdf 翻译:https://zhuanlan.zhihu.com/p/79796618 扩展:https://blog.csdn.net/sanallen/article/details/79402174
Step 3:了解 TVM 官网中可以学习的资料
Step 4:上手 TVM Code
Step 5:TVM 其他相关资料
TVM 讨论:https://discuss.tvm.ai/ CSE 599W Systems for ML:http://jcf94.com/2018/10/04/2018-10-04-cse559w/ 其他介绍:https://daiwk.github.io/posts/platform-TVM.html 陈天奇介绍:https://xmfbit.github.io/2019/06/29/tvm-helloworld/ 陈天奇介绍:https://www.qbitai.com/2019/07/5390.html 知乎评论:https://www.zhihu.com/question/268423574