-
Notifications
You must be signed in to change notification settings - Fork 126
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
不知道能否增加GPU版本的支持 #77
Comments
在考虑中,不过短期内可能没有精力做。 |
@hiroi-sora 你好,我是个开发小白。请问下:
提前先感谢您能抽空看到这里🌷 |
我们考虑过一种方案:用户可以在高性能服务器(or家用电脑)上通过docker部署GPU版OCR引擎,局域网中所有设备的 Umi-OCR 都可以访问该服务器来执行OCR任务,而无需在物理系统上进行复杂的环境配置。 只是个想法,目前版本Umi还未支持。
正常,cuda环境依赖库就是需要数G,乃至十几G的空间。这也是普通用户使用GPU服务的门槛之一。 也有部分显卡加速库不依赖(完整的)cuda,更易用。我们未来将研究下。
OCR确实不依赖GPU。OCR这样的神经网络模型可以看作一个具有很多参数的数学函数。任何人(推理后端)只要拿到参数(模型文件),就可以计算出相同的结果。Paddle的模型也支持多种推理后端,比如PP官方的paddle inference后端,onnx、ncnn等开源后端。 Umi的Paddle插件用的是 paddle inference C++后端,Rapid插件用的是 rapid onnx C++ 后端,它们的性能都比python版本更好,体积更小。 如果你想简单地在本地部署OCR,也可以尝试一下 PaddleOCR-json / RapidOCR-json 。 |
能够切换版本,以加速识别效率。
The text was updated successfully, but these errors were encountered: