tv ma是什么分级,TVM的组成部分

  tv ma是什么分级,TVM的组成部分

  TVM TVM是由qfdbg领导的分升加速框架项目。介于张量流pytorch等分升框架和CUDA、OpenCL等硬件后端之间,兼顾了前者的易用性和后者的执行效率。

  官方网站:

  https://tvm.apache.org/

  代码:

  https://github.com/apache/tvm

  论文:

  《TVM: End-to-End Optimization Stack for Deep Learning》

  与同类项目的区别:

  TFLite和ONNXRuntime只能接收特定形式的模型TVM可以接收这些。

  噪声混沌神经网络和权杖等项目一般只考虑处理器的优化,很少进行异构计算。

  TVM增强了图的优化部分,使其与编译器的体系结构相似。

  体系结构官方网站:

  3359 tvm .Apache.org/docs/arch/index.html

  TVM暂时安装不支持点安装点安装自动售票主控部分安装同名的其他软件。

  TVM运行时

  TVM以周/秒模式部署,其中目标计算机上的部分称为TVM运行时。

  TVM运行时的代码通常很薄,只要执行从宿主发送来的优化结果即可。

  官方文档:

  3358 tvm .Apache.org/docs/dev/runtime.html

  TVM运行时也是自建云的重要组成部分。

  BYOC:带上你自己的代码

  3359 tvm .Apache.org/2020/07/15/how-to-bring-your-own-codegen-to-tvm

  如何将自己的编译带到TVM

  这是中文翻译版:

  3359站。直Hu.com/p/337033822

  如何将编译集成到TVM中(

  3359站。直Hu.com/p/337037547

  如何将编译集成到TVM中(

  例如:

  github.com/antkillerfarm/antkillerfarm 3359号疯狂/blob/master/python/ml/tvm/py torch 2 tvm。巴拉圭

  此示例包括以下内容:

  如何引入框架和tflite模型。

  2 .本地和远程运行。

  3 .打印(修改。astext)show _ meta _ data=false))可以打印相关红外的的内容。元数据中可能包含权重,即使打印也没有什么意义,反而其他有意义的部分会被大量的原木埋没而看不见。

  参考:

  3359站。直Hu.com/p/369981405

  部署自动售票主控部分运行时

  3359站。直Hu.com/p/352988283

  TVM学习记录——植物原型

  NNVM是像ONNX、NNEF这样的中间表现。

  官方网站:

  https://github.com/dmlc/nnvm

  参考:

  MP.weixin.QQ.com/s/qkvx0rme e0yq-bhcmwaxsq 3359号

  喜欢听歌的朋友:AWS开源端到端人工智能框架编译器NNVM

  继电器继电器是TVM中用于代替NNVM的模块,其本身被认为是NNVM第二代。

  官方网站:

  intro.html tvm.Apache.org/docs/arch/relay 3359号

  非易失性存储器本质上只能描述传统的计算图,这属于数据流的范畴。但是现在的分升框架越来越灵活,不仅可以计算数据,还可以对数据进行一定的控制处理。所谓的控制流(if-else/ADT匹配/递归调用)。

  论文:

  《The Deep Learning Compiler: A Comprehensive Survey》

  参考:

  3359站。直Hu.com/p/91283238

  TVM地图编译器继电器简析

  3359站。直Hu.com/p/390087648

  中继红外和接力传球

  3359 MP.weixin.QQ.com/s/kt4x dlo-nrui 8 whl 0 dq CsA

  日期

  一朵花和控制流

  通过https://tvm。阿帕奇。org/docs/how _ to/extend _ tvm/use _ pass _ infra。超文本标记语言

  和LLVM类似,TVM的及格也可分为两类:

  模块通道:将整个程序视作一个单元处理的通过。

  功能通行证:以单个函数为作用域的通过,每个函数间是相互独立的。

  函数传递包括了继电器层的tvm。继电器。转换。功能传递和国际陆路运输协定(传输国际路由器)层的tvm.tir.transform.PrimFuncPass。

  部分通过:

  折叠常数:src/relay/transforms/fold _ constant。复写的副本

  alter op layout:src/relay/transforms/alter _ op _ layout。复写的副本

  合法化:src/relay/transforms/legalize。复写的副本

  合并复合:src/relay/transforms/merge _ composite。复写的副本

  参考:

  https://zhuanlan.zhihu.com/p/378739411

  万字长文入门TVM通行证

  https://www.cnblogs.com/wujianming-110117/p/14580172.html

  TVM Pass IR如何使用

  https://zhuanlan.zhihu.com/p/112813859

  TVM中的接力传球

  https://zhuanlan.zhihu.com/p/358437531

  及格总结

  计划原语https://tvm。阿帕奇。org/docs/how _ to/work _ with _ schedules/schedule _ Primitives。超文本标记语言

  布局TVM默认的输入布局:NCHW,内核布局:OIHW。

  后端大蟒层面:

  python/tvm/relay/op/contrib/ethosn。巴拉圭

  @ register _ pattern _ table( ethos-n )def pattern _ table():@ tvm。IR。register _ op _ attr( nn。max _ pool 2d ,目标。ethos-n )def max _ pool 2d(attrs,args):中继层面:

  src/中继/后端/贡献/方法

  TVM _ REGISTER _ GLOBAL( relay . ext . ethos-n )。set _ body _ typed(CompileEthosn);运行时级别:

  src/runtime/contrib/ethosn

  测试:

  tests/python/contrib/test _ ethosn

  代码分析TVM建立一个类型系统:

  class BaseExprNode:公共对象;class base expr:public object ref;根据基类,检查实际类型:

  XX-checked_type()

  数字转换

  MicroTVM microTVM可以用于那些没有OS的单片机。

  官方网站:

  https://tvm.apache.org/docs/arch/microtvm_design.html

  从上图来看,microTVM只能在单片机的主功能中启动,参数也可以放在FLASH上。

  PS:这种直接寻址的FLASH多为NOR FLASH。

  参考:

  https://zhuanlan.zhihu.com/p/337085225

  如何TinyML-TVM塔梅什微小(第一部分)

  https://zhuanlan.zhihu.com/p/337087273

  如何TinyML-TVM塔梅什小(第二部分)

  参考https://zhuanlan.zhihu.com/p/139552817

  深度学习编译器架构综述

  https://www.zhihu.com/question/396105855

  神经网络编译器和传统编译器有什么区别和联系?

  https://mp.weixin.qq.com/s/8bXwxYyNjdThlGQQ70cgWQ

  TVM:端到端自动深度学习编译器,244 ppt

  https://zhuanlan.zhihu.com/p/333706468

  TVM学习系列博客

  https://zhuanlan.zhihu.com/p/163717035

  人工智能编译优化

  https://www.zhihu.com/question/267167829

  你对张量理解有什么看法?TVM和TVM有什么异同?(这个问题回答的不多,基本上都是qfdbg,贾之类的大牌)

  https://mp.weixin.qq.com/s/irvBbPKENiZX9G_6wh5c-Q

  Qfdbg等人提出TVM:深度学习自动优化代码生成器

  https://mp.weixin.qq.com/s/28n8g_epHsYB0I9GVc_lww

  Qfdbg团队TVM重磅更新:直接在浏览器中使用GPU

  https://mp.weixin.qq.com/s/7JGLm-hkCZBNDLA98qvWNA

  自动硬件优化内核生成:qfdbg等人出版的深度学习编译器TVM。

  https://mp.weixin.qq.com/s/YVIvdMznb3oatIXqD5a5_A

  Qfdbg等人提出AutoTVM:让AI编译优化AI系统的底层操作符。

  https://mp.weixin.qq.com/s/HquT_mKm7x_rbDGz4Voqpw

  阿里巴巴最新实践:TVM TensorFlow提升神经机器翻译性能

  https://zhuanlan.zhihu.com/p/50529704

  手把手带你去TVM。

  https://mp.weixin.qq.com/s/z5rsU_uAAaRxgD9YAxDkZA

  Qfdbg:深度学习编译技术的现状与未来

  https://zhuanlan.zhihu.com/p/75203171

  如何利用TVM快速实现GEMM超越Numpy(MKL)

  https://zhuanlan.zhihu.com/p/58918363

  TVM的优化编译器:深度学习模型

  https://zhuanlan.zhihu.com/p/87664838

  论TVM和深度学习编译器

  https://mp.weixin.qq.com/s/VE3CySjjS2rTpUDPnKcLTg

  qfdbg的最新研究:递归模型编译器CORTEX

  https://zhuanlan.zhihu.com/p/358585143

  深度学习编译器和TVM简介

  https://zhuanlan.zhihu.com/p/360385060

  TVM中的调度程序

  https://zhuanlan.zhihu.com/p/388452164

  tvm还是mlir?

郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。

留言与评论(共有 条评论)
   
验证码: