Release Note

功能

  • 新增以下OP以支持更多X2Paddle 转换的模型:
    • exp
    • elementwise_div
    • assign
    • floor
    • stack
    • reduce_mean
    • matmul
    • expand
    • squeeze

编译

  • 解决 docker 编译 ARM Linux 存在的问题,现支持 armv8 和 armv7 的 gcc 和 clang 编译,并增加相应文档
  • 支持ios编译和发布,并增加相应文档

框架

  • MobileConfig 新增接口支持从内存中加载模型
void set_model_buffer(const char* model_buffer,
                      size_t model_buffer_size,
                      const char* param_buffer,
                      size_t param_buffer_size) 

示例:

lite_api::MobileConfig config;
config.set_model_buffer(
    model_buffer.c_str(), size_model, params_buffer.c_str(), size_params);
auto predictor = lite_api::CreatePaddlePredictor(config);
  • Pass 算子设备类型绑定。在绑定的设备或算子类型未注册时,相应 Pass 不再命中执行。以避免找不到指定设备或算子导致的程序退出。

示例:

REGISTER_MIR_PASS(io_copy_kernel_pick_pass,
    paddle::lite::mir::IoCopyKernelPickPass)
    .BindTargets({TARGET(kAny)})
    .BindKernel("io_copy");

文档

bugfix

  • 修复 model_optimize_tool 的一系列问题,目前int8量化训练模型可经 model_optimize_tool 进行优化输出naive_buffer格式,且输出模型可使用 MobileConfig 正确运行int8推理过程。

附件

android

IOS

memory optimize tool

项目简介

Multi-platform high performance deep learning inference engine (『飞桨』多平台高性能深度学习预测引擎)

发行版本 20

v2.7-beta

全部发行版

贡献者 87

全部贡献者

开发语言

  • C++ 82.3 %
  • Swift 4.1 %
  • CMake 3.0 %
  • Metal 2.6 %
  • C 2.3 %