自研深度学习框架Planer——纯Pyhon实现

自研深度学习框架Planer——纯Pyhon实现前段时间投入了大量的时间与精力编写了 Planer (Powerful Light Artificial NEuRon)框架,该框架仅依赖 Nu

大家好,欢迎来到IT知识分享网。

前段时间投入了大量的时间与精力编写了 Planer (Powerful Light Artificial NEuRon)框架,该框架仅依赖 NumPy 作为其矩阵计算库,并设计了 JSON 格式的及其精简的中间表达格式。最终通过正 则表达式对 PyTorch 模型 TorchScript 进行解析实现模型自动转换到 Planer 框架进行推理。 笔者已经转换了多种 CNN 模型在 Planer 实现成功推理。同时,笔者希望 Planer 能够成为在对部署难度有要求的计算环境中成为有竞争力的一个框架。Planer 在设计之初就考虑到 了可扩展性以及可移植性,笔者编写的另一个目的是希望大家能够加入完善 Planer 的队伍当中,实现更多的 Layer 并支持更多更新的模型,让 Planer 的生态壮大起来。https://github.com/Image-Py/planer

自研深度学习框架Planer——纯Pyhon实现

下图是已经成功转换的PyTorch训练好的模型在Planer上实现推理(HED边缘检测、CRAFT场景文字检测、ResNet18、ESRGAN超分辨率、UNet)。下图是已经成功转换的PyTorch训练好的模型在Planer上实现推理(HED边缘检测、CRAFT场景文字检测、ResNet18、ESRGAN超分辨率、UNet)。

自研深度学习框架Planer——纯Pyhon实现

Planer支持模型

Planer具有以下的特点:

  • 纯NumPy实现,依赖简单、部署快捷
  • 非常精简的IR实现,基于JSON
  • 自带模型可视化(基于networkx)
  • 支持模型从ONNX自动转换
  • 比较丰富的示例CNN模型

顶层设计:

我们要设计一个神经网络推理框架,首先要先把框架的顶层设计想好。我们的目的是实现一个部署友好、自主可控且轻量级的推理框架。部署友好如何实现?因为推理框架的本质还是涉及到数据的计算,我们采用NumPy来支撑我们所有的计算。同时为了做到轻量级,我们将所有神经网络中涉及到比较单独的部分统称为Layer,比如卷积层、全连接层以及非线性激活函数等。同时这种设计方式使得以后对框架进行扩充只需要再实现新的Layer功能就好。这里我们给出我们Layer这个基本类的Python抽象:

class Layer: name = 'layer' def __init__(self, name): self.name = name def forward(self, x): pass def backward(self, grad_y): pass def para(self): return None def load(self, buf): return 0 def __call__(self, x): return self.forward(x)

Layer中最重要的两个api就是前向计算 forward 以及参数加载load。这个设计基本上可以覆盖大部分的模型中所涉及到的层与操作。同时我们这种统一的Layer 设计,可以统一有训练参数层操作(全连接、卷积层等)与无训练参数操作(激活函数、池化等)。无训练参数操作只需要实现forward即可。为了保证模型在部署加载中的简便性,我们将所有的权重都拉直后拼接成一个一维npy文件保存起来,通过NumPy 的io功能实现模型的保存于加载。同时我们将模型的计算表示,也就是IR用json文件保存。这样在实际部署推理模型的时候,只需要NumPy模块与一个npy和一个json文件。这样的设计极大程度的较小了部署难度,将所有的业务实现交给NumPy来完成。同时由于PyTorch更加直观且高效,在研究中广泛使用。Planer框架主要将PyTorch作为对照,计算风格与api设计成与之类似。

构建方式:

Planer支持两种构建方式,一种是手动构建,基本和PyTorch一样的实现,另外一种是基于json文件自动生成模型。

手动构建:

from planer import * # ========== write a net manually ========== class CustomNet(Net): def __init__(self): self.conv = Conv2d(3, 64, 3, 1) self.relu = ReLU() self.pool = Maxpool(2) self.upsample = UpSample(2) self.concatenate = Concatenate() self.sigmoid = Sigmoid() def forward(self, x): x = self.conv(x) x = self.relu(x) y = self.pool(x) y = self.upsample(y) z = self.concatenate([x, y]) return self.sigmoid(z)

JSON构建:

# ========== load net from json ========== layer = [('conv', 'conv', (3, 64, 3, 1)), ('relu', 'relu', None), ('pool', 'maxpool', (2,)), ('up', 'upsample', (2,)), ('concat', 'concat', None), ('sigmoid', 'sigmoid', None)] flow = [('x', ['conv', 'relu'], 'x'), ('x', ['pool', 'up'], 'y'), (['x','y'], ['concat', 'sigmoid'], 'z')] net = Net() net.load_json(layer, flow)

GPU加速:

这里可以直接使用CuPy替换掉NumPy作为backend来进行gpu计算加速

import planer, cupy planer.core(cupy) # use cupy as backend import planer, clpy planer.core(clpy) # use clpy as backend

模型可视化(UNet):

自研深度学习框架Planer——纯Pyhon实现

UNet模型结构可视化

已经支持的Layer:

FC、Conv、Flatten、Upsample、MaxPool、BachNorm、ReLU、Sigmoid、LeakyReLU、Softmax等。其实再有了这些基本的操作后,可以成功推理复杂的CNN,比如YOLO-v3:

自研深度学习框架Planer——纯Pyhon实现

YOLO-v3模型推理结果

YOLO-v3的成功转换代表了一个里程碑,表示一些基本的模型都可以通过Planer来进行推理实现,而且Planer推理只依赖NumPy,这使得使用Planer可以大幅度降低部署难度与门槛。

同时Planer已经实现了另外一个应用广泛的模型cellpose,可以对通用块状物体做分割,如下图所示:

自研深度学习框架Planer——纯Pyhon实现

cellpose模型推理结果

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/69803.html

(0)

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

关注微信