当前位置: 首页 > news >正文

上海营销网站全球4a广告公司排名

上海营销网站,全球4a广告公司排名,室内设计专业有哪些学校,工厂生产管理系统软件对于深度学习模型来说#xff0c;模型部署指让训练好的模型在特定环境中运行的过程。相比于软件部署#xff0c;模型部署会面临更多的难题#xff1a; 运行模型所需的环境难以配置。深度学习模型通常是由一些框架编写#xff0c;比如 PyTorch、TensorFlow。由于框架规模、依… 对于深度学习模型来说模型部署指让训练好的模型在特定环境中运行的过程。相比于软件部署模型部署会面临更多的难题 运行模型所需的环境难以配置。深度学习模型通常是由一些框架编写比如 PyTorch、TensorFlow。由于框架规模、依赖环境的限制这些框架不适合在手机、开发板等生产环境中安装。深度学习模型的结构通常比较庞大需要大量的算力才能满足实时运行的需求。模型的运行效率需要优化。 为了让模型最终能够部署到某一环境上开发者们可以使用任意一种深度学习框架来定义网络结构并通过训练确定网络中的参数。之后模型的结构和参数会被转换成一种只描述网络结构的中间表示一些针对网络结构的优化会在中间表示上进行。最后用面向硬件的高性能编程框架(如 CUDAOpenCL编写能高效执行深度学习网络中算子的推理引擎会把中间表示转换成特定的文件格式并在对应硬件平台上高效运行模型。 这一条流水线解决了模型部署中的两大问题使用对接深度学习框架和推理引擎的中间表示开发者不必担心如何在新环境中运行各个复杂的框架通过中间表示的网络结构优化和推理引擎对运算的底层优化模型的运算效率大幅提升。专栏模型部署那些事 - 知乎 (zhihu.com) 先从本质上来认识一下神经网络的结构。神经网络实际上只是描述了数据计算的过程其结构可以用计算图表示。为了加速计算一些框架会使用对神经网络“先编译后执行”的静态图来描述网络。静态图的缺点是难以描述控制流比如 if-else 分支语句和 for 循环语句直接对其引入控制语句会导致产生不同的计算图。比如循环执行 n 次 aab对于不同的 n会生成不同的计算图。 ONNX Open Neural Network Exchange是 Facebook 和微软在2017年共同发布的用于标准描述计算图的一种格式。目前在数家机构的共同维护下ONNX 已经对接了多种深度学习框架和多种推理引擎。因此ONNX 被当成了深度学习框架到推理引擎的桥梁就像编译器的中间语言一样。由于各框架兼容性不一我们通常只用 ONNX 表示更容易部署的静态图。 其中torch.onnx.export 是 PyTorch 自带的把模型转换成 ONNX 格式的函数。让我们先看一下前三个必选参数前三个参数分别是要转换的模型、模型的任意一组输入、导出的 ONNX 文件的文件名。转换模型时需要原模型和输出文件名是很容易理解的但为什么需要为模型提供一组输入呢 这就涉及到 ONNX 转换的原理了。从 PyTorch 的模型到 ONNX 的模型本质上是一种语言上的翻译。直觉上的想法是像编译器一样彻底解析原模型的代码记录所有控制流。但前面也讲到我们通常只用 ONNX 记录不考虑控制流的静态图。因此PyTorch 提供了一种叫做追踪trace的模型转换方法给定一组输入再实际执行一遍模型即把这组输入对应的计算图记录下来保存为 ONNX 格式。export 函数用的就是追踪导出方法需要给任意一组输入让模型跑起来。 剩下的参数中opset_version 表示 ONNX 算子集的版本。深度学习的发展会不断诞生新算子为了支持这些新增的算子ONNX会经常发布新的算子集目前已经更新15个版本。我们令 opset_version 11即使用第11个 ONNX 算子集是因为 SRCNN 中的 bicubic 双三次插值在 opset11 中才得到支持。剩下的两个参数 input_names, output_names 是输入、输出 tensor 的名称。我们可以用下面的脚本来验证一下模型文件是否正确。 import onnx onnx_model onnx.load(yolon.onnx) try: onnx.checker.check_model(onnx_model) except Exception: print(Model incorrect) else: print(Model correct)看一看 ONNX 模型具体的结构是怎么样的。我们可以使用 Netron 开源的模型可视化工具来可视化 ONNX 模型。把 yolon.onnx 文件从本地的文件系统拖入网站即可看到可视化结果。点击某一个算子节点可以看到算子的具体信息。每个算子记录了算子属性、图结构、权重三类信息。 算子属性信息即图中 attributes 里的信息对于卷积来说算子属性包括了卷积核大小(kernel_shape)、卷积步长(strides)等内容。这些算子属性最终会用来生成一个具体的算子。图结构信息指算子节点在计算图中的名称、邻边的信息。根据每个算子节点的图结构信息就能完整地复原出网络的计算图。权重信息指的是网络经过训练后算子存储的权重信息。对于卷积来说权重信息包括卷积核的权重值和卷积后的偏差值。 ONNX Runtime 是由微软维护的一个跨平台机器学习推理加速器也就是我们前面提到的”推理引擎“。ONNX Runtime 是直接对接 ONNX 的即 ONNX Runtime 可以直接读取并运行 .onnx 文件, 而不需要再把 .onnx 格式的文件转换成其他格式的文件。也就是说对于 PyTorch - ONNX - ONNX Runtime 这条部署流水线只要在目标设备中得到 .onnx 文件并在 ONNX Runtime 上运行模型模型部署就算大功告成了。ONNX Runtime 提供了 Python 接口。可以添加如下代码运行模型 import onnxruntime ort_session onnxruntime.InferenceSession(yolon.onnx) ort_inputs {input: input_img} ort_output ort_session.run([output], ort_inputs)[0] ort_output np.squeeze(ort_output, 0) ort_output np.clip(ort_output, 0, 255) ort_output np.transpose(ort_output, [1, 2, 0]).astype(np.uint8) cv2.imwrite(face.png, ort_output)这段代码中除去后处理操作外和 ONNX Runtime 相关的代码只有三行。让我们简单解析一下这三行代码。onnxruntime.InferenceSession用于获取一个 ONNX Runtime 推理器其参数是用于推理的 ONNX 模型文件。推理器的 **run** 方法用于模型推理其第一个参数为输出张量名的列表第二个参数为输入值的字典。其中输入值字典的 key 为张量名value 为 numpy 类型的张量值。输入输出张量的名称需要和torch.onnx.export 中设置的输入输出名对应。 模型部署的常见流水线是“深度学习框架-中间表示-推理引擎”。其中比较常用的一个中间表示是 ONNX。深度学习模型实际上就是一个计算图。模型部署时通常把模型转换成静态的计算图即没有控制流分支语句、循环语句的计算图。PyTorch 框架自带对 ONNX 的支持只需要构造一组随机的输入并对模型调用 torch.onnx.export 即可完成 PyTorch 到 ONNX 的转换。推理引擎 ONNX Runtime 对 ONNX 模型有原生的支持。给定一个 .onnx 文件只需要简单使用 ONNX Runtime 的 Python API 就可以完成模型推理。 如果模型的操作稍微复杂一点我们可能就要为兼容模型而付出大量的功夫了。实际上模型部署时一般会碰到以下几类困难 模型的动态化。出于性能的考虑各推理框架都默认模型的输入形状、输出形状、结构是静态的。而为了让模型的泛用性更强部署时需要在尽可能不影响原有逻辑的前提下让模型的输入输出或是结构动态化。新算子的实现。深度学习技术日新月异提出新算子的速度往往快于 ONNX 维护者支持的速度。为了部署最新的模型部署工程师往往需要自己在 ONNX 和推理引擎中支持新算子。中间表示与推理引擎的兼容问题。由于各推理引擎的实现不同对 ONNX 难以形成统一的支持。为了确保模型在不同的推理引擎中有同样的运行效果部署工程师往往得为某个推理引擎定制模型代码这为模型部署引入了许多工作量。 super()用来调用父类(基类)的方法init()是类的构造方法super().init() 就是调用父类的init方法 同样可以使用super()去调用父类的其他方法。init() 是python中的构造函数在创建对象的时自动调用。定义类时可以不写init方法系统会默认创建如果子类B和父类A都写了init方法那么A的init方法就会被B覆盖。想调用A的init方法需要用super去调用。python3 直接写成 super().init()python2 必须写成 super(本类名,self).init() PyTorch 模型在导出到 ONNX 模型时模型的输入参数的类型必须全部是 torch.Tensor。我们传入参数如果是一个整形变量。这不符合 PyTorch 转 ONNX 的规定。我们必须要修改一下原来的模型的输入。为了保证输入的所有参数都是 torch.Tensor 类型的。但是导出 ONNX 时却报了一条 TraceWarning 的警告。这条警告说有一些量可能会追踪失败。可以发现虽然我们把模型推理的输入设置为了两个但 ONNX 模型还是长得和原来一模一样只有一个叫 input 的输入。这是由于我们使用了 torch.Tensor.item() 把数据从 Tensor 里取出来**而导出 ONNX 模型时这个操作是无法被记录的只好报了一条 TraceWarning**。 模型部署中常见的几类困难有模型的动态化新算子的实现框架间的兼容。PyTorch 转 ONNX实际上就是把每一个操作转化成 ONNX 定义的某一个算子。比如对于 PyTorch 中的 Upsample 和 interpolate在转 ONNX 后最终都会成为 ONNX 的 Resize 算子。通过修改继承自 torch.autograd.Function 的算子的 symbolic 方法可以改变该算子映射到 ONNX 算子的行为。 ONNX 是目前模型部署中最重要的中间表示之一。学懂了 ONNX 的技术细节就能规避大量的模型部署问题。要决定新算子映射到 ONNX 算子的方法。映射到 ONNX 的方法由一个算子的 symbolic 方法决定。symbolic 方法第一个参数必须是g之后的参数是算子的自定义输入和 forward 函数一样。ONNX 算子的具体定义由 g.op 实现。g.op 的每个参数都可以映射到 ONNX 中的算子属性。 TorchScript 是一种序列化和优化 PyTorch 模型的格式在优化过程中一个torch.nn.Module模型会被转换成 TorchScript 的 torch.jit.ScriptModule模型。现在 TorchScript 也被常当成一种中间表示使用。torch.onnx.export中需要的模型实际上是一个torch.jit.ScriptModule。而要把普通 PyTorch 模型转一个这样的 TorchScript 模型有跟踪trace和记录script两种导出计算图的方法。如果给torch.onnx.export传入了一个普通 PyTorch 模型torch.nn.Module)那么这个模型会默认使用跟踪的方法导出。 跟踪法只能通过实际运行一遍模型的方法导出模型的静态图即无法识别出模型中的控制流如循环记录法则能通过解析模型来正确记录所有的控制流。跟踪法与直接 torch.onnx.export(model, …)等价 ,记录法必须先调用 torch.jit.sciprt 。 model_trace torch.jit.trace(model, dummy_input) model_script torch.jit.script(model) 由于推理引擎对静态图的支持更好通常我们在模型部署时不需要显式地把 PyTorch 模型转成 TorchScript 模型直接把 PyTorch 模型用 torch.onnx.export 跟踪导出即可。 ONNX 模型的每个输入和输出张量都有一个名字。很多推理引擎在运行 ONNX 文件时都需要以“名称-张量值”的数据对来输入数据并根据输出张量的名称来获取输出数据。在进行跟张量有关的设置比如添加动态维度时也需要知道张量的名字。在实际的部署流水线中我们都需要设置输入和输出张量的名称并保证 ONNX 和推理引擎中使用同一套名称。 希望模型在导出至 ONNX 时有一些不同的行为模型在直接用 PyTorch 推理时有一套逻辑而在导出的ONNX模型中有另一套逻辑。比如我们可以把一些后处理的逻辑放在模型里以简化除运行模型之外的其他代码。torch.onnx.is_in_onnx_export()可以实现这一任务该函数仅在执行 torch.onnx.export()时为真。 使用 is_in_onnx_export确实能让我们方便地在代码中添加和模型部署相关的逻辑。但是这些代码对只关心模型训练的开发者来说很不友好突兀的部署逻辑会降低代码整体的可读性。同时is_in_onnx_export只能在每个需要添加部署逻辑的地方都“打补丁”难以进行统一的管理。 在确保torch.onnx.export()的调用方法无误后PyTorch 转 ONNX 时最容易出现的问题就是算子不兼容了。这里我们会介绍如何判断某个 PyTorch 算子在 ONNX 中是否兼容以助大家在碰到报错时能更好地把错误归类。在转换普通的torch.nn.Module模型时PyTorch 一方面会用跟踪法执行前向推理把遇到的算子整合成计算图另一方面PyTorch 还会把遇到的每个算子翻译成 ONNX 中定义的算子。在这个翻译过程中可能会碰到以下情况 该算子可以一对一地翻译成一个 ONNX 算子。该算子在 ONNX 中没有直接对应的算子会翻译成一至多个 ONNX 算子。该算子没有定义翻译成 ONNX 的规则报错。 由于 PyTorch 算子是向 ONNX 对齐的这里我们先看一下 ONNX 算子的定义情况再看一下 PyTorch 定义的算子映射关系。 实际的部署过程中我们都有可能会碰到一个最简单的算子缺失问题 算子在 ATen 中已经实现了ONNX 中也有相关算子的定义但是相关算子映射成 ONNX 的规则没有写。在这种情况下我们只需要为 ATen 算子补充描述映射规则的符号函数就行了。ATen 是 PyTorch 内置的 C 张量计算库PyTorch 算子在底层绝大多数计算都是用 ATen 实现的。 ONNX 的 Asinh 算子。这个算子在 ATen 中有实现却缺少了映射到 ONNX 算子的符号函数。在这里我们来尝试为它补充符号函数并导出一个包含这个算子的 ONNX 模型。为了编写符号函数我们需要获得 asinh 推理接口的输入参数定义。这时我们要去 torch/_C/_VariableFunctions.pyi 和 torch/nn/functional.pyi 这两个文件中搜索我们刚刚得到的这个算子名。这两个文件是编译 PyTorch 时本地自动生成的文件里面包含了 ATen 算子的 PyTorch 调用接口。通过搜索我们可以知道 asinh 在文件torch/_C/_VariableFunctions.pyi 中其接口定义为: def asinh(input: Tensor, *, out: Optional[Tensor]None) - Tensor: ... 经过这些步骤我们确认了缺失的算子名为 asinh它是一个有实现的 ATen 算子。我们还记下了 asinh 的调用接口。接下来我们要为它补充符号函数使它在转换成 ONNX 模型时不再报错。 符号函数可以看成是 PyTorch 算子类的一个静态方法。在把 PyTorch 模型转换成 ONNX 模型时各个 PyTorch 算子的符号函数会被依次调用以完成 PyTorch 算子到 ONNX 算子的转换。符号函数的定义一般如下 def symbolic(g: torch._C.Graph, input_0: torch._C.Value, input_1: torch._C.Value, ...): 其中torch._C.Graph 和 torch._C.Value 都对应 PyTorch 的 C 实现里的一些类。只需要知道第一个参数就固定叫 g它表示和计算图相关的内容后面的每个参数都表示算子的输入需要和算子的前向推理接口的输入相同。对于 ATen 算子来说它们的前向推理接口就是上述两个 .pyi 文件里的函数接口。g 有一个方法 op。在把 PyTorch 算子转换成 ONNX 算子时需要在符号函数中调用此方法来为最终的计算图添加一个 ONNX 算子。其定义如下 def op(name: str, input_0: torch._C.Value, input_1: torch._C.Value, ...) 第一个参数是算子名称。如果该算子是普通的 ONNX 算子只需要把它在 ONNX 官方文档里的名称填进去即可。在最简单的情况下我们只要把 PyTorch 算子的输入用g.op()一一对应到 ONNX 算子上即可并把g.op()的返回值作为符号函数的返回值。在情况更复杂时我们转换一个 PyTorch 算子可能要新建若干个 ONNX 算子。 回到 asinh 算子上来为它编写符号函数。我们先去翻阅一下 ONNX 算子文档学习一下我们在符号函数里的映射关系 g.op() 里应该怎么写。Asinh 的文档写道该算子有一个输入 input一个输出 output二者的类型都为张量。现在我们可以用代码来补充这二者的映射关系了。在刚刚导出 asinh 算子的代码中我们添加以下内容 from torch.onnx.symbolic_registry import register_op def asinh_symbolic(g, input, *, outNone): return g.op(Asinh, input) register_op(asinh, asinh_symbolic, , 9) 这里的asinh_symbolic就是asinh的符号函数。从除g以外的第二个输入参数开始其输入参数应该严格对应它在 ATen 中的定义 def asinh(input: Tensor, *, out: Optional[Tensor]None) - Tensor: ... 在符号函数的函数体中g.op(Asinh, input)则完成了 ONNX 算子的定义。其中第一个参数Asinh是算子在 ONNX 中的名称。至于第二个参数 input如我们刚刚在文档里所见这个算子只有一个输入因此我们只要把符号函数的输入参数 input 对应过去就行。ONNX 的 Asinh 的输出和 ATen 的 asinh 的输出是一致的因此我们直接把 g.op() 的结果返回即可。 定义完符号函数后我们要把这个符号函数和原来的 ATen 算子“绑定”起来。这里我们要用到 register_op 这个 PyTorch API 来完成绑定。如示例所示只需要一行简单的代码即可把符号函数 asinh_symbolic 绑定到算子 asinh 上 register_op(asinh, asinh_symbolic, , 9) register_op的第一个参数是目标 ATen 算子名第二个是要注册的符号函数这两个参数很好理解。第三个参数是算子的“域”对于普通 ONNX 算子直接填空字符串即可。第四个参数表示向哪个算子集版本注册。我们遵照 ONNX 标准向第 9 号算子集注册。值得注意的是这里向第 9 号算子集注册不代表较新的算子集第 10 号、第 11 号……都得到了注册。 import torch class Model(torch.nn.Module): def __init__(self): super().__init__() def forward(self, x): return torch.asinh(x) from torch.onnx.symbolic_registry import register_op def asinh_symbolic(g, input, *, outNone): return g.op(Asinh, input) register_op(asinh, asinh_symbolic, , 9) model Model() input torch.rand(1, 3, 10, 10) torch.onnx.export(model, input, asinh.onnx) 在完成了一份自定义算子后我们一定要测试一下算子的正确性。一般我们要用 PyTorch 运行一遍原算子再用推理引擎比如 ONNX Runtime运行一下 ONNX 算子最后比对两次的运行结果。对于我们刚刚得到的 asinh.onnx可以用如下代码来验证 import onnxruntime import torch import numpy as np class Model(torch.nn.Module): def __init__(self): super().__init__() def forward(self, x): return torch.asinh(x) model Model() input torch.rand(1, 3, 10, 10) torch_output model(input).detach().numpy() sess onnxruntime.InferenceSession(asinh.onnx) ort_output sess.run(None, {0: input.numpy()})[0] assert np.allclose(torch_output, ort_output)使用 np.allclose 来保证两个结果张量的误差在一个可以允许的范围内。一切正常的话运行这段代码后assert 所在行不会报错程序应该没有任何输出。 对于一些比较复杂的运算仅使用 PyTorch 原生算子是无法实现的。这个时候就要考虑自定义一个 PyTorch 算子再把它转换到 ONNX 中了。新增 PyTorch 算子的方法有很多PyTorch 官方比较推荐的一种做法是添加 TorchScript 算子 。以可变形卷积Deformable Convolution算子为例介绍为现有 TorchScript 算子添加 ONNX 支持的方法。 有了支持 ATen 算子的经验之后我们可以知道为算子添加符号函数一般要经过以下几步 获取原算子的前向推理接口。获取目标 ONNX 算子的定义。编写符号函数并绑定。 首先定义一个包含了算子的模型为之后转换 ONNX 模型做准备。 import torch import torchvision class Model(torch.nn.Module): def __init__(self): super().__init__() self.conv1 torch.nn.Conv2d(3, 18, 3) self.conv2 torchvision.ops.DeformConv2d(3, 3, 3) def forward(self, x): return self.conv2(x, self.conv1(x)) torchvision.ops.DeformConv2d 就是 Torchvision 中的可变形卷积层。相比于普通卷积可变形卷积的其他参数都大致相同唯一的区别就是在推理时需要多输入一个表示偏移量的张量。然后我们查询算子的前向推理接口。DeformConv2d 层最终会调用 deform_conv2d 这个算子。我们可以在 torchvision/csrc/ops/deform_conv2d.cpp 中查到该算子的调用接口 m.def(TORCH_SELECTIVE_SCHEMA( torchvision::deform_conv2d(Tensor input, Tensor weight, Tensor offset, ...... bool use_mask) - Tensor)); 那么接下来根据之前的经验我们就是要去 ONNX 官方文档中查找算子的定义了。去 ONNX 的官方算子页面搜索 “deform”将搜不出任何内容。目前ONNX 还没有提供可变形卷积的算子我们要自己定义一个 ONNX 算子了。 在前面讲过g.op() 是用来定义 ONNX 算子的函数。对于 ONNX 官方定义的算子g.op() 的第一个参数就是该算子的名称。而对于一个自定义算子g.op() 的第一个参数是一个带命名空间的算子名比如 g.op(custom::deform_conv2d, ...) 其中::前面的内容就是我们的命名空间。该概念和 C 的命名空间类似是为了防止命名冲突而设定的。如果在 g.op() 里不加前面的命名空间则算子会被默认成 ONNX 的官方算子。PyTorch 在运行 g.op() 时会对官方的算子做检查如果算子名有误或者算子的输入类型不正确 g.op() 就会报错。为了让我们随心所欲地定义新 ONNX 算子我们必须设定一个命名空间给算子取个名再定义自己的算子。此处我们只关心如何导出一个包含新 ONNX 算子节点的 onnx 文件。因此我们可以为新算子编写如下简单的符号函数 parse_args(v, v, v, v, v, i, i, i, i, i, i, i, i, none) def symbolic(g, input, weight, offset, mask, bias, stride_h, stride_w, pad_h, pad_w, dil_h, dil_w, n_weight_grps, n_offset_grps, use_mask): return g.op(custom::deform_conv2d, input, offset) 在这个符号函数中我们以刚刚搜索到的算子输入参数作为符号函数的输入参数并只用 input 和 offset 来构造一个简单的 ONNX 算子。 最令人疑惑的就是装饰器 parse_args 了。简单来说TorchScript 算子的符号函数要求标注出每一个输入参数的类型。比如v表示 Torch 库里的 value 类型一般用于标注张量而i表示 int 类型f表示 float 类型none表示该参数为空。具体的类型含义可以在 torch.onnx.symbolic_helper.py [https://github.com/pytorch/pytorch/blob/master/torch/onnx/symbolic_helper.py]中查看。这里输入参数中的 input, weight, offset, mask, bias 都是张量所以用v表示。后面的其他参数同理。我们不必纠结于 parse_args 的原理根据实际情况对符号函数的参数标注类型即可。有了符号函数后我们通过如下的方式注册符号函数 register_custom_op_symbolic(torchvision::deform_conv2d, symbolic, 9) 和前面的 register_op 类似注册符号函数时我们要输入算子名、符号函数、算子集版本。与前面不同的是这里的算子集版本是最早生效版本在这里设定版本 9意味着之后的第 10 号、第 11 号……版本集都能使用这个新算子。 import torch import torchvision class Model(torch.nn.Module): def __init__(self): super().__init__() self.conv1 torch.nn.Conv2d(3, 18, 3) self.conv2 torchvision.ops.DeformConv2d(3, 3, 3) def forward(self, x): return self.conv2(x, self.conv1(x)) from torch.onnx import register_custom_op_symbolic from torch.onnx.symbolic_helper import parse_args parse_args(v, v, v, v, v, i, i, i, i, i, i, i, i, none) def symbolic(g, input, weight, offset, mask, bias, stride_h, stride_w, pad_h, pad_w, dil_h, dil_w, n_weight_grps, n_offset_grps, use_mask): return g.op(custom::deform_conv2d, input, offset) register_custom_op_symbolic(torchvision::deform_conv2d, symbolic, 9) model Model() input torch.rand(1, 3, 10, 10) torch.onnx.export(model, input, dcn.onnx) 最后我们来学习一种简单的为 PyTorch 添加 C 算子实现的方法来代替较为复杂的新增 TorchScript 算子。同时我们会用 torch.autograd.Function 封装这个新算子。torch.autograd.Function 能完成算子实现和算子调用的隔离。不管算子是怎么实现的它封装后的使用体验以及 ONNX 导出方法会和原生的 PyTorch 算子一样。这是我们比较推荐的为算子添加 ONNX 支持的方法。为了应对更复杂的情况我们来自定义一个奇怪的 my_add 算子。这个算子的输入张量 a, b 输出 2a b 的值。我们会先把它在 PyTorch 中实现再把它导出到 ONNX 中。 为 PyTorch 添加简单的 C 拓展还是很方便的。对于我们定义的 my_add 算子可以用以下的 C 源文件来实现。我们把该文件命名为 “my_add.cpp” // my_add.cpp #include torch/torch.h torch::Tensor my_add(torch::Tensor a, torch::Tensor b) { return 2 * a b; } PYBIND11_MODULE(my_lib, m) { m.def(my_add, my_add); } torch::Tensor 就是 C 中 torch 的张量类型它的加法和乘法等运算符均已重载。因此我们可以像对普通标量一样对张量做加法和乘法。轻松地完成了算子的实现后我们用 PYBIND11_MODULE 来为 C 函数提供 Python 调用接口。这里的 my_lib 是我们未来要在 Python 里导入的模块名。双引号中的 my_add 是 Python 调用接口的名称这里我们对齐 C 函数的名称依然用 my_add这个名字。之后我们可以编写如下的 Python 代码并命名为 “setup.py”来编译刚刚的 C 文件 from setuptools import setup from torch.utils import cpp_extension setup(namemy_add, ext_modules[cpp_extension.CppExtension(my_lib, [my_add.cpp])], cmdclass{build_ext: cpp_extension.BuildExtension}) 这段代码使用了 Python 的 setuptools 编译功能和 PyTorch 的 C 拓展工具函数可以编译包含了 torch 库的 C 源文件。这里我们需要填写的只有模块名和模块中的源文件名。我们刚刚把模块命名为 my_lib而源文件只有一个 my_add.cpp因此拓展模块那一行要写成 ext_modules[cpp_extension.CppExtension(my_lib, [my_add.cpp])],之后像处理普通的 Python 包一样执行安装命令我们的 C 代码就会自动编译了。 python setup.py develop 直接用 Python 接口调用 C 函数不太“美观”一种比较优雅的做法是把这个调用接口封装起来。这里我们用 torch.autograd.Function 来封装算子的底层调用 import torch import my_lib class MyAddFunction(torch.autograd.Function): staticmethod def forward(ctx, a, b): return my_lib.my_add(a, b) staticmethod def symbolic(g, a, b): two g.op(Constant, value_ttorch.tensor([2])) a g.op(Mul, a, two) return g.op(Add, a, b) Function 类本身表示 PyTorch 的一个可导函数只要为其定义了前向推理和反向传播的实现我们就可以把它当成一个普通 PyTorch 函数来使用。PyTorch 会自动调度该函数合适地执行前向和反向计算。对模型部署来说Function 类有一个很好的性质如果它定义了 symbolic 静态方法该 Function 在执行 torch.onnx.export() 时就可以根据 symbolic 中定义的规则转换成 ONNX 算子。这个 symbolic 就是前面提到的符号函数只是它的名称必须是 symbolic 而已。 在 forward 函数中我们用 my_lib.my_add(a, b) 就可以调用之前写的C函数了。这里 my_lib 是库名my_add 是函数名这两个名字是在前面C的 PYBIND11_MODULE 中定义的。 在 symbolic 函数中我们用 g.op() 定义了三个算子常量、乘法、加法。这里乘法和加法的用法和前面提到的 asinh 一样只需要根据 ONNX 算子定义规则把输入参数填入即可。而在定义常量算子时我们要把 PyTorch 张量的值传入 value_t 参数中。在 ONNX 中我们需要把新建常量当成一个算子来看待尽管这个算子并不会以节点的形式出现在 ONNX 模型的可视化结果里。把算子封装成 Function 后我们可以把 my_add算子用起来了。 my_add MyAddFunction.apply class MyAdd(torch.nn.Module): def __init__(self): super().__init__() def forward(self, a, b): return my_add(a, b) 在这份代码里我们先用 my_add MyAddFunction.apply 获取了一个奇怪的变量。这个变量是用来做什么的呢其实apply是torch.autograd.Function 的一个方法这个方法完成了 Function 在前向推理或者反向传播时的调度。我们在使用 Function 的派生类做推理时不应该显式地调用 forward()而应该调用其 apply 方法。在使用 my_add 算子时我们应该忽略 MyAddFunction 的实现细节而只通过 my_add 这个接口来访问算子。这里 my_add 的地位和 PyTorch 的 asinh, interpolate, conv2d等原生函数是类似的。 有了访问新算子的接口后我们**可以进一步把算子封装成一个神经网络中的计算层。我们定义一个叫做的 MyAdd 的 torch.nn.Module它封装了my_add就和封装了conv2d 的 torch.nn.Conv2d 一样**。 和之前的测试流程一样让我们用下面的代码来导出一个包含新算子的 ONNX 模型并验证一下它是否正确。 model MyAdd() input torch.rand(1, 3, 10, 10) torch.onnx.export(model, (input, input), my_add.onnx) torch_output model(input, input).detach().numpy() import onnxruntime import numpy as np sess onnxruntime.InferenceSession(my_add.onnx) ort_output sess.run(None, {a: input.numpy(), b: input.numpy()})[0] assert np.allclose(torch_output, ort_output) 整理一下整个流程的 P y t h o n 代码如下 \textcolor{red}{整理一下整个流程的 Python 代码如下} 整理一下整个流程的Python代码如下 import torch import my_lib class MyAddFunction(torch.autograd.Function): staticmethod def forward(ctx, a, b): return my_lib.my_add(a, b) staticmethod def symbolic(g, a, b): two g.op(Constant, value_ttorch.tensor([2])) a g.op(Mul, a, two) return g.op(Add, a, b) my_add MyAddFunction.apply class MyAdd(torch.nn.Module): def __init__(self): super().__init__() def forward(self, a, b): return my_add(a, b) model MyAdd() input torch.rand(1, 3, 10, 10) torch.onnx.export(model, (input, input), my_add.onnx) torch_output model(input, input).detach().numpy() import onnxruntime import numpy as np sess onnxruntime.InferenceSession(my_add.onnx) ort_output sess.run(None, {a: input.numpy(), b: input.numpy()})[0] assert np.allclose(torch_output, ort_output) ATen 是 PyTorch 的 C 张量运算库。通过查询 torch/_C/_VariableFunctions.pyi 和 torch/nn/functional.pyi我们可以知道 ATen 算子的 Python 接口定义。 用 register_op 可以为 ATen 算子补充注册符号函数 用 register_custom_op_symbolic 可以为 TorchScript 算子补充注册符号函数 ONNX 在底层是用 Protobuf 定义的。Protobuf全称 Protocol Buffer是 Google 提出的一套表示和序列化数据的机制。使用 Protobuf 时用户需要先写一份数据定义文件再根据这份定义文件把数据存储进一份二进制文件。可以说数据定义文件就是数据类二进制文件就是数据类的实例。这里给出一个 Protobuf 数据定义文件的例子 message Person { required string name 1; required int32 id 2; optional string email 3; } 这段定义表示在 Person 这种数据类型中必须包含 name、id 这两个字段选择性包含 email字段。根据这份定义文件用户就可以选择一种编程语言定义一个含有成员变量 name、id、email 的 Person 类把这个类的某个实例用 Protobuf 存储成二进制文件反之用户也可以用二进制文件和对应的数据定义文件读取出一个 Person 类的实例。 对于 ONNX Protobuf 的数据定义文件在其开源库这些文件定义了神经网络中模型、节点、张量的数据类型规范而二进制文件就是我们熟悉的“.onnx文件每一个 onnx 文件按照数据定义规范存储了一个神经网络的所有相关数据。直接用 Protobuf 生成 ONNX 模型还是比较麻烦的。幸运的是ONNX 提供了很多实用 API我们可以在完全不了解 Protobuf 的前提下构造和读取 ONNX 模型。 还需要先了解一下 ONNX 的结构定义规则学习一下 ONNX 在 Protobuf 定义文件里是怎样描述一个神经网络的。神经网络本质上是一个计算图。计算图的节点是算子边是参与运算的张量。而通过可视化 ONNX 模型我们知道 ONNX 记录了所有算子节点的属性信息并把参与运算的张量信息存储在算子节点的输入输出信息中。事实上ONNX 模型的结构可以用类图大致表示如下 如图所示一个 ONNX 模型可以用 ModelProto 类表示。ModelProto 包含了版本、创建者等日志信息还包含了存储计算图结构的 graph。GraphProto 类则由输入张量信息、输出张量信息、节点信息组成。张量信息 ValueInfoProto 类包括张量名、基本数据类型、形状。节点信息 NodeProto 类包含了算子名、算子输入张量名、算子输出张量名。 假如我们有一个描述 outputa*xb 的 ONNX 模型 model用 print(model) 可以输出以下内容 ir_version: 8 graph { node { input: a input: x output: c op_type: Mul } node { input: c input: b output: output op_type: Add } name: linear_func input { name: a type { tensor_type { elem_type: 1 shape { dim {dim_value: 10} dim {dim_value: 10} } } } } input { name: x type { tensor_type { elem_type: 1 shape { dim {dim_value: 10} dim {dim_value: 10} } } } } input { name: b type { tensor_type { elem_type: 1 shape { dim {dim_value: 10} dim {dim_value: 10} } } } } output { name: output type { tensor_type { elem_type: 1 shape { dim { dim_value: 10} dim { dim_value: 10} } } } } } opset_import {version: 15} 对应上文中的类图这个模型的信息由 ir_versionopset_import 等全局信息和 graph 图信息组成。而 graph 包含一个乘法节点、一个加法节点、三个输入张量 a, x, b 以及一个输出张量 output。 ONNX 模型是按以下的结构组织起来的 ModelProto GraphProto NodeProtoValueInfoProto 现在让我们抛开 PyTorch尝试完全用 ONNX 的 Python API 构造一个描述线性函数 outputa*xb 的 ONNX 模型。我们将根据上面的结构自底向上地构造这个模型。首先我们可以用 helper.make_tensor_value_info 构造出一个描述张量信息的 ValueInfoProto 对象。如前面的类图所示我们要传入张量名、张量的基本数据类型、张量形状这三个信息。在 ONNX 中不管是输入张量还是输出张量它们的表示方式都是一样的。因此这里我们用类似的方式为三个输入 a, x, b 和一个输出 output 构造 ValueInfoProto 对象。如下面的代码所示 import onnx from onnx import helper from onnx import TensorProto a helper.make_tensor_value_info(a, TensorProto.FLOAT, [10, 10]) x helper.make_tensor_value_info(x, TensorProto.FLOAT, [10, 10]) b helper.make_tensor_value_info(b, TensorProto.FLOAT, [10, 10]) output helper.make_tensor_value_info(output, TensorProto.FLOAT, [10, 10]) 之后我们要构造算子节点信息 NodeProto这可以通过在 helper.make_node 中传入算子类型、输入算子名、输出算子名这三个信息来实现。我们这里先构造了描述 ca*x 的乘法节点再构造了 outputcb 的加法节点。如下面的代码所示 mul helper.make_node(Mul, [a, x], [c]) add helper.make_node(Add, [c, b], [output]) 在计算机中图一般是用一个节点集和一个边集表示的。而 ONNX 巧妙地把边的信息保存在了节点信息里省去了保存边集的步骤。在 ONNX 中如果某节点的输入名和之前某节点的输出名相同就默认这两个节点是相连的。如上面的例子所示Mul 节点定义了输出 cAdd 节点定义了输入 c则 Mul 节点和 Add 节点是相连的。 正是因为有这种边的隐式定义规则所以 ONNX 对节点的输入有一定的要求一个节点的输入要么是整个模型的输入要么是之前某个节点的输出。如果我们把 a, x, b 中的某个输入节点从计算图中拿出这个操作会在之后的代码中介绍或者把 Mul 的输出从 c 改成 d则最终的 ONNX 模型都是不满足标准的。一个不满足标准的 ONNX 模型可能无法被推理引擎正确识别。ONNX 提供了 API onnx.checker.check_model 来判断一个 ONNX 模型是否满足标准。 接下来我们用 helper.make_graph 来构造计算图 GraphProto。helper.make_graph 函数需要传入节点、图名称、输入张量信息、输出张量信息这 4 个参数。如下面的代码所示我们把之前构造出来的 NodeProto 对象和 ValueInfoProto 对象按照顺序传入即可。 graph helper.make_graph([mul, add], linear_func, [a, x, b], [output]) 这里 make_graph 的节点参数有一个要求计算图的节点必须以拓扑序给出。拓扑序是与有向图的相关的数学概念。如果按拓扑序遍历所有节点的话能保证每个节点的输入都能在之前节点的输出里找到对于 ONNX 模型我们把计算图的输入张量也看成“之前的输出”。 最后我们用 helper.make_model 把计算图 GraphProto 封装进模型 ModelProto 里一个 ONNX 模型就构造完成了。make_model 函数中还可以添加模型制作者、版本等信息为了简单起见我们没有添加额外的信息。如下面的代码所示 model helper.make_model(graph) 构造完模型之后我们用下面这三行代码来检查模型正确性、把模型以文本形式输出、存储到一个 “.onnx” 文件里。这里用 onnx.checker.check_model 来检查模型是否满足 ONNX 标准是必要的因为无论模型是否满足标准ONNX 都允许我们用 onnx.save 存储模型。我们肯定不希望生成一个不满足标准的模型。 onnx.checker.check_model(model) print(model) onnx.save(model, linear_func.onnx) 成功执行这些代码的话程序会以文本格式输出模型的信息其内容应该和我们在上一节展示的输出一样。整理一下用 ONNX Python API 构造模型的代码如下 import onnx from onnx import helper from onnx import TensorProto # input and output a helper.make_tensor_value_info(a, TensorProto.FLOAT, [10, 10]) x helper.make_tensor_value_info(x, TensorProto.FLOAT, [10, 10]) b helper.make_tensor_value_info(b, TensorProto.FLOAT, [10, 10]) output helper.make_tensor_value_info(output, TensorProto.FLOAT, [10, 10]) # Mul mul helper.make_node(Mul, [a, x], [c]) # Add add helper.make_node(Add, [c, b], [output]) # graph and model graph helper.make_graph([mul, add], linear_func, [a, x, b], [output]) model helper.make_model(graph) # save model onnx.checker.check_model(model) print(model) onnx.save(model, linear_func.onnx) 可以用 ONNX Runtime 运行模型来看看模型是否正确 import onnxruntime import numpy as np sess onnxruntime.InferenceSession(linear_func.onnx) a np.random.rand(10, 10).astype(np.float32) b np.random.rand(10, 10).astype(np.float32) x np.random.rand(10, 10).astype(np.float32) output sess.run([output], {a: a, b: b, x: x})[0] assert np.allclose(output, a * x b)通过用 API 构造 ONNX 模型我们已经彻底搞懂了 ONNX 由哪些模块组成。现在让我们看看该如何读取现有的.onnx文件并从中提取模型信息。首先我们可以用下面的代码读取一个 ONNX 模型 import onnx model onnx.load(linear_func.onnx) print(model) 传给 onnx.save 的是一个 ModelProto 的对象。同理用上面的 onnx.load 读取 ONNX 模型时我们收获的也是一个 ModelProto 的对象。输出这个对象后我们应该得到和之前完全相同的输出。接下来我们来看看怎么把图 GraphProto、节点 NodeProto、张量信息 ValueInfoProto 读取出来 graph model.graph node graph.node input graph.input output graph.output print(node) print(input) print(output) 可以分别访问模型的图、节点、张量信息。这里大家或许会有疑问该怎样找出 graph.node,graph.input 中 node, input 这些属性名称呢其实属性的名称就写在每个对象的输出里。我们以 print(node) 的输出为例 [input: a input: x output: c op_type: Mul , input: c input: b output: output op_type: Add ] 在这段输出中我们能看出 node 其实就是一个列表列表中的对象有属性 input, output, op_type这里 input 也是一个列表它包含的两个元素都显示出来了。当我们想知道 ONNX 模型某数据对象有哪些属性时我们不必去翻 ONNX 文档只需要先把数据对象输出一下然后在输出结果找出属性名即可。读取 ONNX 模型的信息后修改 ONNX 模型就是一件很轻松的事了。这里我们来看一个直接修改模型属性的例子 import onnx model onnx.load(linear_func.onnx) node model.graph.node node[1].op_type Sub onnx.checker.check_model(model) onnx.save(model, linear_func_2.onnx) 在读入之前的 linear_func.onnx 模型后我们可以直接修改第二个节点的类型 node[1].op_type把加法变成减法。这样我们的模型描述的是 a * x - b 这个线性函数。 在实际部署中如果用深度学习框架导出的 ONNX 模型出了问题一般要通过修改框架的代码来解决而不会从 ONNX 入手我们把 ONNX 模型当成一个不可修改的黑盒看待。现在我们已经深入学习了 ONNX 的原理可以尝试对 ONNX 模型本身进行调试了。可以巧妙利用 ONNX 提供的子模型提取功能对 ONNX 模型进行调试。 ONNX 使用 Protobuf 定义规范和序列化模型一个 ONNX 模型主要由 ModelProto,GraphProto,NodeProto,ValueInfoProto 这几个数据类的对象组成。使用 onnx.helper.make_xxx我们可以构造 ONNX 模型的数据对象。onnx.save() 可以保存模型onnx.load() 可以读取模型onnx.checker.check_model() 可以检查模型是否符合规范。onnx.utils.extract_model() 可以从原模型中取出部分节点和新定义的输入、输出边构成一个新的子模型。利用子模型提取功能我们可以输出原 ONNX 模型的中间结果实现对 ONNX 模型的调试。 精度对齐是模型部署中重要的一个环节。在把深度学习框架模型转换成中间表示模型后部署工程师们要做的第一件事就是精度对齐确保模型的计算结果与之前相当。精度对齐时最常用的方法就是使用测试集评估一遍中间表示模型看看模型的评估指标如准确度、相似度是否下降。 而在 PyTorch 到 ONNX 这条部署路线上这种精度对齐方式有一些不便一旦我们发现 PyTorch 模型和 ONNX 模型的评估指标有了出入我们很难去追踪精度是在哪一个模块出了问题。这是因为 PyTorch 和 ONNX 模块总是难以对应。 假设我们现在有一个由很多卷积块 convs1, convs2... 组成的网络我们想对齐 PyTorch 模型和 ONNX 模型的精度。第一步我们想比较第一个卷积块的输出 x self.convs1(x)。模块在PyTorch 模型中的输出可以很轻松地得到可是这个输出究竟对应 ONNX 模型里的哪一个输出呢在小模型里我们或许能够通过阅读 PyTorch 模型的源码推断出每个 ONNX 模块与 PyTorch 模块的对应关系但是在大模型中我们是难以建立 PyTorch 与 ONNX 的对应关系的。 为了把 PyTorch 和 ONNX 模块对应起来我们可以使用一种储存了调试信息的自定义算子如下图所示 可以定义一个叫做 Debug 的 ONNX 算子它有一个属性调试名 name。而由于每一个 ONNX 算子节点又自带了输出张量的名称这样一来ONNX 节点的输出名和调试名绑定在了一起。我们可以顺着 PyTorch 里的调试名找到对应 ONNX 里的输出完成 PyTorch 和 ONNX 的对应。 上图的例子中我们把第一个卷积块输出 xself.convs1(x) 接入一个带有调试名 x_0 的调试算子。在最后生成的 ONNX 模型中假设调试名 x_0 对应的输出张量叫做 a。知道了这一信息后我们只需要先运行一遍 PyTorch 模型记录第一个卷积块的输出再运行一遍 ONNX 模型用截取 ONNX 中间结果的方法记录中间张量 a 的值。这样我们就可以对齐某 PyTorch 模块和它对应的 ONNX 模块的输出了。 需要实现之前提到的 Debug 算子 import torch class DebugOp(torch.autograd.Function): staticmethod def forward(ctx, x, name): return x staticmethod def symbolic(g, x, name): return g.op(my::Debug, x, name_sname) debug_apply DebugOp.apply Debug 算子的调用接口有两个参数输入张量 x 和调试名 name。为了把这个算子“伪装”成一个普通的算子使之能正常地参与推理、构建计算图的操作我们还是需要正确定义对输入 x 进行操作的 forward 函数。而在表示 PyTorch 与 ONNX 映射规则的 symbolic 函数里我们要定义一个带有调试名的 ONNX 算子并把输入的 name 传给算子。由于 Debug 算子本身不表示任何计算因此在 forward 函数中直接把输入 x 返回即可。而 symbolic 函数定义了一个新算子 my::Debug算子有一个输入 x一个属性 name。我们直接把算子调用接口里的 xname 传入即可。 这里需要补充介绍算子定义函数 g.op() 的一些规范。在g.op()中算子的属性需要以 {attibute_name}_{type}attibute_value 这样的格式传入。其中 {attibute_name} 为属性名{type} 指定了算子属性的数据类型。比如说我们上面的算子属性写成 name_s实际上是定义了一个字符串类型名字叫做 name 的属性。除了表示字符串类型的 _s 外还有表示 float 型的 _f表示 tensor 型的 _t。在完成算子的定义后我们可以通过 debug_apply DebugOp.apply 获取算子的调用接口。这样以后就可以通过 debug_apply(x, name) 来使用这个算子了。 来实现精度对齐工具的核心——Debugger 类。这个类包含了实现精度对齐所需的所有操作。Debugger 类有三个成员变量 torch_value 记录了运行 PyTorch 模型后每个调试张量的值。onnx_value 记录了运行 ONNX 模型后每个调试张量的值。output_debug_name 记录了把调试张量加入 ONNX 的输出后每个输出张量的调试名。 Debugger 类有以下方法 debug 封装了之前编写好的 debug_apply。该方法需要在原 PyTorch 模型中调用可以为导出的 ONNX 模型添加 Debug 算子节点同时记录 PyTorch 调试张量值。 def debug(self, x, name): self.torch_value[name] x.detach().cpu().numpy() return debug_apply(x, name) extract_debug_model 和 ONNX 的子模型提取函数的用法类似可以把带调试节点的 ONNX 模型转化成一个可以输出调试张量的 ONNX 模型。 def extract_debug_model(self, input_path, output_path): model onnx.load(input_path) inputs [input.name for input in model.graph.input] outputs [] for node in model.graph.node: if node.op_type Debug: # 记录调试张量名 debug_name node.attribute[0].s.decode(ASCII) self.output_debug_name.append(debug_name) # 添加输入 output_name node.output[0] outputs.append(output_name) # 转换 Debug 节点为 Indentity 节点 node.op_type Identity node.domain del node.attribute[:] e onnx.utils.Extractor(model) extracted e.extract_model(inputs, outputs) onnx.save(extracted, output_path) run_debug_model 会使用 ONNX Runtime 运行模型得到 ONNX 调试张量值。 def run_debug_model(self, input, debug_model): sess onnxruntime.InferenceSession(debug_model, providers[CPUExecutionProvider]) onnx_outputs sess.run(None, input) for name, value in zip(self.output_debug_name, onnx_outputs): self.onnx_value[name] value 在运行调试模型前我们要给出模型输入、模型名这两个参数。根据这些参数run_debug_model 会调用 ONNX Runtime 的 API对 ONNX 模型进行推理。在得到了 ONNX 模型的输出后我们要使用上一步得到的 output_debug_name 信息填写 onnx_value把 ONNX 的中间运算结果绑定到调试名上。完成了这些步骤之后我们就有足够的信息做精度对齐了。 print_debug_result 会比较 PyTorch 和 ONNX 的调试张量值输出比较的结果。 def print_debug_result(self): for name in self.torch_value.keys(): if name in self.onnx_value: mse np.mean(self.torch_value[name] - self.onnx_value[name])**2) print(f{name} MSE: {mse}) debug完成了两件事记录 PyTorch 模型中调试张量的值、添加 Debug 节点。我们使用 self.torch_value[name] x.detach().cpu().numpy() 把调试张量转成 numpy 格式并保存进 torch_value 词典里。之后我们调用之前编写的 debug_apply 算子。 在 PyTorch 模型中插入 debug 方法后我们可以得到一个包含了若干 Debug 节点的 ONNX 模型。但是这个 ONNX 模型不是我们最终拿来执行的模型。为了得到 Debug 节点的输出即调试张量的值我们需要做三项处理以提取出一个可运行的调试模型 记录每个调试张量的调试名为之后对齐 PyTorch、ONNX 调试张量值做准备。把所有 Debug 节点的输出加入到整个模型的输出中这样在运行模型后就能得到这些中间节点的输出了。自定义的 Debug 节点在推理引擎中是没有实现的为了让处理后的 ONNX 模型运行起来需要把 Debug 节点转化成可运行的 Identity 恒等节点。 完成了这三项处理后我们才能进行模型提取。下面我们来看看模型提取和这几项处理是怎么实现的。首先看一下和模型提取有关的代码 model onnx.load(input_path) inputs [input.name for input in model.graph.input] outputs [] # 获取 outputs ... # 调用提取模型 API e onnx.utils.Extractor(model) extracted e.extract_model(inputs, outputs) # 保存模型 onnx.save(extracted, output_path) 为了获取和 Debug 节点相关的信息我们需要遍历 ONNX 模型的所有节点找出那些类型为 Debug 的节点并对这些节点执行操作。下面的代码实现了记录调试张量名 debug_name node.attribute[0].s.decode(ASCII) self.output_debug_name.append(debug_name) 从节点的第一个属性即 name )中取出调试名信息并存入 output_debug_name 中。节点第一个属性的值可以通过 node.attribute[0] 获得。由于 name 是属性是字符串这里要用 .s 获取属性的字符串值。又由于 ONNX 是以二进制的形式保存所有数据的这里要用 .decode(ASCII) 把二进制字符串转成一个文本字符串。接下来的代码用于填写新模型输出 outputs output_name node.output[0] outputs.append(output_name) node.output[0] 就是 Debug 节点的输出张量在 ONNX 里的名称。把这个名称加入新模型的输出后只要运行新模型就可以得到该输出张量的值了。最后这段代码用于更改 Debug 节点的类型 node.op_type Identity node.domain del node.attribute[:] 为了消除 ONNX 不支持的 Debug 节点一种比较简单的方式是直接把 Debug 节点修改成不执行任何操作的 Indentity 类型的节点。为了做这个转换我们要先修改节点类型名 node.op_type 为Identity再把节点的域即命名空间node.domain 修改成空最后删除节点的所有属性保证节点符合 ONNX 的规范。 最后我们同时遍历 self.torch_value 和 self.onnx_value 这两个词典比较同一个张量在 PyTorch 模型和 ONNX 模型里的输出。在循环体中我们只需要使用 self.torch_value[name] 和 self.onnx_value[name] 就可以访问同一个张量在 PyTorch 里的值和在 ONNX 里的值。作为示例这里我们可以计算二者的均方误差 mse以此为精度对齐的依据。整理一下整个工具库的代码如下 import torch import onnx import onnxruntime import numpy as np class DebugOp(torch.autograd.Function): staticmethod def forward(ctx, x, name): return x staticmethod def symbolic(g, x, name): return g.op(my::Debug, x, name_sname) debug_apply DebugOp.apply class Debugger(): def __init__(self): super().__init__() self.torch_value dict() self.onnx_value dict() self.output_debug_name [] def debug(self, x, name): self.torch_value[name] x.detach().cpu().numpy() return debug_apply(x, name) def extract_debug_model(self, input_path, output_path): model onnx.load(input_path) inputs [input.name for input in model.graph.input] outputs [] for node in model.graph.node: if node.op_type Debug: debug_name node.attribute[0].s.decode(ASCII) self.output_debug_name.append(debug_name) output_name node.output[0] outputs.append(output_name) node.op_type Identity node.domain del node.attribute[:] e onnx.utils.Extractor(model) extracted e.extract_model(inputs, outputs) onnx.save(extracted, output_path) def run_debug_model(self, input, debug_model): sess onnxruntime.InferenceSession(debug_model, providers[CPUExecutionProvider]) onnx_outputs sess.run(None, input) for name, value in zip(self.output_debug_name, onnx_outputs): self.onnx_value[name] value def print_debug_result(self): for name in self.torch_value.keys(): if name in self.onnx_value: mse np.mean(self.torch_value[name] - self.onnx_value[name])**2) print(f{name} MSE: {mse})现在假设我们得到了一个这样的模型 class Model(torch.nn.Module): def __init__(self): super().__init__() self.convs1 torch.nn.Sequential(torch.nn.Conv2d(3, 3, 3, 1, 1), torch.nn.Conv2d(3, 3, 3, 1, 1), torch.nn.Conv2d(3, 3, 3, 1, 1)) self.convs2 torch.nn.Sequential(torch.nn.Conv2d(3, 3, 3, 1, 1), torch.nn.Conv2d(3, 3, 3, 1, 1)) self.convs3 torch.nn.Sequential(torch.nn.Conv2d(3, 3, 3, 1, 1), torch.nn.Conv2d(3, 3, 3, 1, 1)) self.convs4 torch.nn.Sequential(torch.nn.Conv2d(3, 3, 3, 1, 1), torch.nn.Conv2d(3, 3, 3, 1, 1), torch.nn.Conv2d(3, 3, 3, 1, 1)) def forward(self, x): x self.convs1(x) x self.convs2(x) x self.convs3(x) x self.convs4(x) return x torch_model Model() 现在我们想对齐 convs1 至 convs4 这每一个卷积块的输出精度该怎么使用之前写好的精度对齐工具呢首先我们生成管理类 Debugger 的一个实例 debugger Debugger() 之后我们要设法把 Debug 节点插入原模型 from types import MethodType def new_forward(self, x): x self.convs1(x) x debugger.debug(x, x_0) x self.convs2(x) x debugger.debug(x, x_1) x self.convs3(x) x debugger.debug(x, x_2) x self.convs4(x) x debugger.debug(x, x_3) return x torch_model.forward MethodType(new_forward, torch_model) 我们可以为原模型新写一个 forward 函数。在这个新的函数函数中我们可以通过 debugger.debug 把每一个输出张量标记起来并各取一个不重复的调试名。有了 new_forward 函数我们需要使用 MethodType 这个 Python API 把这个函数变成模型实例 torch_model 的一个成员方法确保 torch_model 的 forward 函数能够被正确替换。就可以使用 PyTorch API 导出一个带有 Debug 节点的 ONNX 模型了 dummy_input torch.randn(1, 3, 10, 10) torch.onnx.export(torch_model, dummy_input, before_debug.onnx, input_names[input]) 由于 torch.onnx.export 模型使用的是跟踪法模型的 forward 函数会被执行一次 debugger.debug 操作可以把 PyTorch 模型的调试张量输出记录在 debugger.torch_value 里。替换掉所有 Debug 节点并记录每个 Debug 输出张量的 ONNX 名与调试名的对应关系 debugger.extract_debug_model(before_debug.onnx, after_debug.onnx) 可以使用下面的代码运行这个模型 debugger.run_debug_model({input:dummy_input.numpy()}, after_debug.onnx) 这样ONNX 模型的调试张量输出会记录在 debugger.onnx_value 里。可以轻轻松松地用一行代码输出精度对齐的结果 debugger.print_debug_result() TensorRT 是由 NVIDIA 发布的深度学习框架用于在其硬件上运行深度学习推理。TensorRT 提供量化感知训练和离线量化功能用户可以选择 INT8 和 FP16 两种优化模式将深度学习模型应用到不同任务的生产部署如视频流、语音识别、推荐、欺诈检测、文本生成和自然语言处理。TensorRT 经过高度优化可在 NVIDIA GPU 上运行 并且可能是目前在 NVIDIA GPU 运行模型最快的推理引擎。
http://www.zqtcl.cn/news/381735/

相关文章:

  • 苏州网站的建设哪个网站上做自媒体最好
  • 传送门网站是怎么做的wordpress seo标题
  • 曲靖 曲靖网站建设软件(app)开发视频一页网站怎么做
  • 互联网公司网站建设ppt模板下载wordpress 图片2m
  • 箱包官方网站模板平台开发软件
  • 佛山网站改版动漫视频制作软件
  • 易企互联网站建设创办公司需要多少资金
  • wordpress主题页脚添加联系信息百度seo优化排名软件
  • 深圳微信商城网站设计价格广东省自然资源厅事务中心
  • 云服务器做网站视屏工程建设最好的网站
  • 宁夏建设工程质量安全监督网站电商网站需求分析
  • wordpress函数教程十堰seo优化哪家公司好
  • 直播app开发哪家好东莞整站优化火速公司
  • 平江高端网站建设wordpress如何添加广告
  • 网站建设得多钱搜索引擎推广网站
  • 建立网站的流程多少钱网站建设不用备案的
  • 广州城市建设档案网站扬州工程建设招标网
  • 邦策网站建设dedecms医院网站wap模板(橙色)4512345
  • 阿里云空间可以做网站吗专业的传媒行业网站开发
  • 网站制作新报价橄榄树网站建设
  • 网站建设及服务合同小程序代码教程
  • 晋城网站建设公司淘宝店铺网站建设
  • 赣州网站建设流程上海重大新闻
  • html网站架设ui设计用的软件有哪些
  • 有没有做培养基的网站58同城淄博网站建设
  • 承德做网站的公司专业平台建设网站关了吗
  • 自己做网站的成本要哪些东西wordpress resize
  • 网站建设总体流程wordpress 浮窗音乐
  • 福州网站建设公司哪个网站可以做前端项目
  • 十二冶金建设集团有限公司网站wordpress安装在哪里