From 103b364fe9d16e006aa9b634e33fde9a92955bd9 Mon Sep 17 00:00:00 2001 From: qian-dan <756328797@qq.com> Date: Fri, 4 Jul 2025 16:46:56 +0800 Subject: [PATCH] modify docs Signed-off-by: qian-dan <756328797@qq.com> --- .../ai/mindspore/mindspore-lite-converter-guidelines.md | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/zh-cn/application-dev/ai/mindspore/mindspore-lite-converter-guidelines.md b/zh-cn/application-dev/ai/mindspore/mindspore-lite-converter-guidelines.md index 523d8b2f95c..456a0dd4acb 100644 --- a/zh-cn/application-dev/ai/mindspore/mindspore-lite-converter-guidelines.md +++ b/zh-cn/application-dev/ai/mindspore/mindspore-lite-converter-guidelines.md @@ -32,9 +32,9 @@ MindSpore Lite AI模型部署流程是: > > - 由于支持转换PyTorch模型的编译选项默认关闭,因此下载的安装包不支持转换PyTorch模型,只能通过源码编译方式获取。 > -> - 模型中有transpose与convolution算子融合,需要通过源码编译方式获取。 +> - 模型中有transpose与convolution算子融合,需要通过源码编译方式获取。否则可能会发生类似警告:node infer shape failed, node is Default/Conv2DFusion-xxx。 > -> - 自定义[关闭clip算子融合](#关闭指定算子融合)时,需要通过源码编译方式获取。 +> - 当指定NPU后端进行推理时,需要自定义[关闭clip算子融合](#关闭指定算子融合),模型转换工具需要通过源码编译方式获取。否则可能会发生类似报错:BuildKirinNPUModel# Create full model kernel failed。 1. 编译环境要求如下: -- Gitee