Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

不知道能否增加GPU版本的支持 #77

Open
yang-521 opened this issue Oct 5, 2023 · 3 comments
Open

不知道能否增加GPU版本的支持 #77

yang-521 opened this issue Oct 5, 2023 · 3 comments

Comments

@yang-521
Copy link

yang-521 commented Oct 5, 2023

能够切换版本,以加速识别效率。

@hiroi-sora
Copy link
Owner

hiroi-sora commented Oct 8, 2023

在考虑中,不过短期内可能没有精力做。
代码层面应该不用怎么改动,关键在于配置环境,然后打包发行包

@AClon314
Copy link

AClon314 commented Sep 5, 2024

@hiroi-sora 你好,我是个开发小白。请问下:

  1. 如果做GPU,有没有必要用docker或podman等虚拟容器的端口映射docker -p <主机端口>:<容器端口>,来做GPU的虚拟环境?
  2. 因为我今天刚本地部署,2.5.2-gpu-cuda12.0-cudnn8.9-trt8.6的官方镜像有22GB这么大。为什么会这么大?而umi-ocr也使用到paddle ocr模型,安装包却没超过300MB?难道不需要paddlepaddle-gpupaddlepaddle的python库也可以做ocr吗?

提前先感谢您能抽空看到这里🌷

@hiroi-sora
Copy link
Owner

hiroi-sora commented Sep 5, 2024

  1. 如果做GPU,有没有必要用docker或podman等虚拟容器的端口映射docker -p <主机端口>:<容器端口>,来做GPU的虚拟环境?

我们考虑过一种方案:用户可以在高性能服务器(or家用电脑)上通过docker部署GPU版OCR引擎,局域网中所有设备的 Umi-OCR 都可以访问该服务器来执行OCR任务,而无需在物理系统上进行复杂的环境配置。

只是个想法,目前版本Umi还未支持。

  1. 因为我今天刚本地部署,2.5.2-gpu-cuda12.0-cudnn8.9-trt8.6的官方镜像有22GB这么大。为什么会这么大?

正常,cuda环境依赖库就是需要数G,乃至十几G的空间。这也是普通用户使用GPU服务的门槛之一。

也有部分显卡加速库不依赖(完整的)cuda,更易用。我们未来将研究下。

而umi-ocr也使用到paddle模型,安装包却没超过300MB?难道不需要paddlepaddle-gpu和paddlepaddle的python库也可以做ocr吗?

OCR确实不依赖GPU。OCR这样的神经网络模型可以看作一个具有很多参数的数学函数。任何人(推理后端)只要拿到参数(模型文件),就可以计算出相同的结果。Paddle的模型也支持多种推理后端,比如PP官方的paddle inference后端,onnx、ncnn等开源后端。

Umi的Paddle插件用的是 paddle inference C++后端,Rapid插件用的是 rapid onnx C++ 后端,它们的性能都比python版本更好,体积更小。

如果你想简单地在本地部署OCR,也可以尝试一下 PaddleOCR-json / RapidOCR-json

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

3 participants