Skip to content

v2.10

Compare
Choose a tag to compare
@Superjomn Superjomn released this 29 Nov 09:10
· 1659 commits to develop since this release
fec57de

Release Notes

重要更新

框架升级

  • 编译策略升级
    • 精简代码结构:按功能代码整理、清理冗余代码
    • 精简编译逻辑 :合并和复用部分编译逻辑,整体 cmake 代码量降低60%
      图片
  • Benchmark 工具升级
    • 多平台支持
      • 支持 Android 端 CPU、GPU 测速
      • 支持 macOS 端(x86 架构、ARM 架构) CPU、GPU 测速
      • 支持 Linux x86 端 CPU 测速
      • 支持 Linux ARM 端 CPU、GPU 测速
    • 多 backend 支持:已支持 CPU、GPU、各类 NPU

硬件&性能增强

ARM CPU

FP32 优化

  • 新增 A53 v8 GEMM算子优化,kernel 性能有约 20%-40% 提升,详见 PR6521
  • 新增 conv_3x3s2_direct C3 实现,kernel 性能有约 5%-10% 提升,详见PR6721
  • 新增 A35 GEMV 算子优化实现,kernel性能有约 20%-40% 提升,详见PR6804
  • 性能数据,以ARMv7 为例,以下为最新性能与竞品的对比:
    • FP32模型性能:低端机模型性能均优于竞品,高中端机模型性能部分优于竞品,部分差于竞品TFLite,在进一步优化中
      图片

    • INT8 模型性能:模型性能均优于竞品
      图片

    • 模型:

      • mv1: tf_mobilnetv1
      • mv2: tf_mobilnetv2
      • mv3_small: tf_mobilnetv3_small
      • mv3_large: tf_mobilnetv3_large
      • ssd_mv3: ssdlite_mobilenet_v3_large
    • 竞品:

      • PaddleLite分支:release/v2.10,7645e40(20211018)
      • MNN分支:master,d21fd2a(20210904)
      • TFLite分支:master,线上拉取最新(拉取日期:20210906),
        • MD5 (android_aarch64_benchmark_model) = 9851018013eb46ada7aedfad88f01da8
        • MD5 (android_arm_benchmark_model) = af6ca4bb724b9faa2370d307749f556a
      • TNN分支:master,40b88ce(20210903)
      • MindsporeLite分支:master,155b2c0(20210830),--cpuBindMode=1(大核)

FP16 优化

  • 新增 V7 FP16 编译支持,要求 NDK 版本 21 及其以上

  • 新增 V7 FP16 激活实现,如 relurelu6hard_swish

  • 新增 V7 FP16 Winograd 卷积、calibfill_bias_act 等算子实现

  • 新增 conv_3x3s2_direct C3 实现,kernel 性能有5%-10% 提升,详见PR6726

  • 新增 5+ V8 FP16 OP实现,如 box_clipprior_boxhard_swish等实现

  • 性能数据:

    • 版本间性能对比:大部分模型有10%-30% 提升,详细性能数据请见下图
      图片

    • 竞品性能对比:模型性能均优于竞品MNN 和 Mindspore-Lite,大部分模型性能与TNN 持平或稍差于,详细性能数据请见下图
      图片

    • 模型:

      • mv1: tf_mobilnetv1
      • mv2: tf_mobilnetv2
      • mv3_small: tf_mobilnetv3_small
      • mv3_large: tf_mobilnetv3_large
      • ssd_mv3: ssdlite_mobilenet_v3_large
    • 竞品:

      • PaddleLite分支:release/v2.10,7645e40(20211018)
      • MNN分支:master,d21fd2a(20210904)
      • TNN分支:master,40b88ce(20210903)
      • MindsporeLite分支:master,155b2c0(20210830)
        ####基础能力支持
  • 新增Bigru模型的支持,详见PR7212

X86

  • 新增10+ OP 算子支持,如 conv_transpoernnrduce_minpowmish等,跑通 Paddle 2.0 50+ 模型

  • 新增 elementwise 的 broadcast 模式支持,详见PR6957

  • 新增Bigru模型的支持,详见PR7212

  • 优化卷积中 bias + act 实现,卷积性能有1-2倍的提升,详见PR6704

  • 优化3x3 depthwise卷积实现,对于MobilNetV1/V2性能提升约为20%,详见PR6745

  • 优化5x5 depthwise卷积实现,对于MobilNetV3 small/large性能提升超过20%,详见PR6745

  • 性能数据:

    • 版本间性能对比:大部分模型性能有约20%-30% 提升,详细性能数据请见下图
      图片

    • 测试机:Intel(R) Core(TM) i7-10700 CPU @ 2.90GHz

    • 模型:

      • mv1: tf_mobilnetv1
      • mv2: tf_mobilnetv2
      • mv3_small: tf_mobilnetv3_small
      • mv3_large: tf_mobilnetv3_large
  • 新增 15个 OP,包括 anchor_generator ,box_clip ,conv2d_transpose ,clip ,generate_proposals / generate_proposals_v2 ,group_norm ,nearest_interp_v2 / bilinear_interp_v2 ,mish ,pow ,rnn ,roi_align ,yolo_box ,reduce_min ,reverse ,inverse.

OpenCL

  • GPU 基础能力提升

    • 新增 GPU 数据 Layout 类型: kImageFolder #7143
    • 新增 4 个 Layout 转换函数:ImageDefault -> ImageFolder、ImageFolder -> ImageDefault、ImageFolder -> NCHW、 NCHW -> ImageFolder #7143
    • 新增 5 个 op: depthwise_transpose_conv, max, argmax, abs, greater_than #6912 #6877 #6816 #6920 #6595
    • 完善elementwise,支持 broadcast #7306 #7363
    • 新增 OpenCL 库体积裁剪功能 #6914
  • kernel 性能优化

    • 优化 FC/Softmax:FC 可提速 1 ~ 3 倍,softmax可提速 44% ~ 302% #6560
  • Pass 相关

    • MatmulElementwiseFusePass 中新增支持transpose_ytrue的情况 #7178
    • SSDBoxesCalcOfflinePass 中新增 density_prior_box 的情况,facebox 模型提速 26% #6868
    • 新增 GreaterThanCastPass #6595
  • 性能数据

    • 与 release/v2.9.1 版本对比,多个模型在典型设备上有 ~5% 左右的性能提升;
    • 与竞品对比,在大部分模型测试场景下,Paddle Lite 领先或持平与竞品,部分模型性能有待提高。
      图片

图片

Metal

  • 新增 44 个 op&kernel , 详细列表请参考最新的 支持算子列表
  • 支持 18 种 Paddle FP32 模型,已验证模型列表如下:
  • 性能数据
    • 与主流移动端推理框架相比,Paddle Lite 持平或者部分领先其他框架,后续将持续优化。详细数据如下:

百度昆仑 xpu

  • 编译优化
    • 优化编译脚本,与 Paddle 统一 xpu_toolchain 依赖
    • 编译脚本支持指定环境,编译时自动下载 xpu 依赖
    • 支持 Windows + XPU 的预测库编译
  • 模型支持能力
    • 支持带控制流算子的模型
    • 支持昆仑 xpu 内存和 L3 cache 复用策略,支持部分大内存模型,模型性能提升
  • kernel 和 pass 支持
    • 新增 __xpu_logit 等 8 个 fuse pass
    • 新增 less_than, argmax 等 65 个 kernel,详细列表请参考最新的 支持算子列表
    • 3 个 kernel 新增支持 int8 精度计算
      • __xpu__conv2d
      • __xpu__fc
      • __xpu__multi_encoder
    • __xpu__embedding_with_eltwise_add 支持 Mask 输入和 SeqLod、PadSeqLen 输出
    • 支持 calib 自动精度转换
      • int64 --> int32
      • int32 --> int64
    • kernel cast 支持输入精度为 int32、int64
    • kernel concat 支持输入包含维度为 0 的 tensor,支持输入精度为 int32、int64

硬件支持

  • 新增 NNAdapter:飞桨推理 AI 硬件统一适配框架,基于标准化的推理框架适配层 API硬件抽象层接口定义模型、算子的中间表示 实现了推理框架与硬件适配完全解耦,可较为有效的降低硬件厂商接入门槛和开发成本,而更薄的硬件适配层 不仅能以较少的代码快速完成硬件适配,还可以提高代码的可维护性。目前已完成华为麒麟 NPU、瑞芯微 NPU、联发科 APU 和 颖脉 NNA 的迁移。
  • 基于 NNAdapter 新增支持华为昇腾 NPU,完成 Intel x86 + Atlas 300I/C 3010、 鲲鹏 920 + Atlas 300I/C 3000 的适配,支持 64 个算子和覆盖图像分类、目标检测、关键点检测、文本检测和识别、语义理解和生成网络共 32 个开源模型和 18 个业务模型。
  • 基于 NNAdapter 新增支持晶晨NPU ,完成 Amlogic C308X (ARM Linux)、A311D(ARM Linux) 和 S905D3(Android)的适配,支持 MobileNetV1-int8-per_layer、resnet50-int8-per_layer、ssd_mobilenet_v1_relu_voc_int8_300_per_layer开源模型和人体/手部关键点检测、人脸检测/识别/关键点检测等 11 个业务模型。
  • 基于 NNAdapter + 瑞芯微 NPU 在 RK1808 EVB 上完成人体关键点检测业务模型的适配。

Bug fix

  • 修复 conv opencl tune bug #6879 #6734
  • 修复开启内存复用后,unsqeeze2 算子报错问题 #7384
  • 修复 conv_elementwise_tree_fuse_pass bug #6812
  • 修复 host topk_v2 单测 bug #6629
  • 修复 ssd_box_calc_offline pass 因 concat 的输入顺序的错误而导致的某些设备运行ssd类模型时随机挂问题 #6652
  • 修复 Pad3dOpLite::InferShapeImpl() bug#6824
  • 修复 tile op bug 和reduce_sum op bug #6487
  • 修复 conv_transpose op 的计算分配空间不足问题,详见PR7287
  • 修复 FP32 GEMM 算子read invalid 风险问题,详见PR7124
  • 修复cv单测crash问题,详见PR7671
  • 修复fp16 transpose精度不对齐问题,详见PR7582
  • 修复OPT找不到depthwise_conv_transpose,详见PR7270
  • 修复multiclass_nms_compute引起的段错误,详见PR7690
  • 修复输入维度过大时im2col局部变量溢出,修复interp_op输入scale解析错误,详见PR7365

文档更新