在aarch64平台与x86平台下使用cpu进行PaddleOCR的C++推理,性能差距巨大是正常的吗? #14280
Unanswered
huameinan219
asked this question in
Q&A
Replies: 1 comment 1 reply
-
在aarch64平台与x86平台下使用CPU进行PaddleOCR的C++推理时,性能差距巨大的情况确实可能是正常的,原因如下: 1. 硬件架构差异
2. 线程数与并行化性能
3. 软件优化问题
4. 模型推理框架的差异
5. 模型和任务特性
针对性能优化的建议
参考讨论相关的Issues和Discussions提供了一些有价值的调试思路:
希望以上分析能帮助您更好地理解性能差异并优化推理速度! Response generated by 🤖 feifei-bot | chatgpt-4o-latest |
Beta Was this translation helpful? Give feedback.
1 reply
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
-
运行平台:
aarch64: FT-2000+与Kunpeng-920(服务器cpu),paddle_inference为编译paddle-release/2.6生成的预测库,opencv-3.4.7
x86:Intel 13th i5-1340P(笔记本cpu),paddle_inference为官方提供的基于paddle-2.3的预测库,opencv-3.4.7
其中x86平台未开启mkl,在x86这边推理耗时大概1.5秒左右,而在鲲鹏920上耗时为40多秒,飞腾2000要100多秒,且在aarch64这边均开启了40个线程,x86这边只使用了10个线程。
Beta Was this translation helpful? Give feedback.
All reactions