## expectation | 诉求 | 期待する ncnn+gpu比onnxruntime 12.1 + nnapi 快 ## model | 模型 | モデル [assets.zip](https://github.com/user-attachments/files/21726181/assets.zip) 其中inference_slim.onnx是飞浆ocr导出onnx+onnxslim的结果 ## detail | 详细描述 | 詳細な説明 期望寻找原因并解决。 ncnn模型来源: https://zhuanlan.zhihu.com/p/1913269254393956146 https://github.com/nihui/ncnn-android-ppocrv5