We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
在代码https://github.com/huawei-noah/Efficient-AI-Backbones/blob/master/ghostnet_pytorch/validate.py#L61, 验证机数据处理是先采用transforms.Resize(256),然后transforms.CenterCrop(224),首先这种测试方式是不容易对齐的,因为每次产生测试数据的图是不一样的;因为我一般是采用原图直接resize 224然后normalize ,最后的输入网络测试;但是这种方式我测试出来的结果ghostnet 1.0 加载你们提供的训练好的网络state_dict_73.98.pth;最后测试出来的结果为top1: 0.7082 top5: 0.8979;paper中写的是top1:73.9,top5:91.4
The text was updated successfully, but these errors were encountered:
“先采用transforms.Resize(256),然后transforms.CenterCrop(224)”这种方式是普遍采用的方式。这种方式是保持长宽比的情况下将短边resize到256,然后中心crop出224x224的图片,每次产生的图片是一样的。没有你说的不一样的情况。
Sorry, something went wrong.
抱歉,我将CenterCrop理解成RandomResizedCrop了; 但是实际工程中,一般是不会crop吧,crop对分类的主体在中心位置是友好的,但是主体不在中心位置并不好,并且对于长宽比大幅偏离1:1,这样的操作可能直接丢失主体。
No branches or pull requests
在代码https://github.com/huawei-noah/Efficient-AI-Backbones/blob/master/ghostnet_pytorch/validate.py#L61, 验证机数据处理是先采用transforms.Resize(256),然后transforms.CenterCrop(224),首先这种测试方式是不容易对齐的,因为每次产生测试数据的图是不一样的;因为我一般是采用原图直接resize 224然后normalize ,最后的输入网络测试;但是这种方式我测试出来的结果ghostnet 1.0 加载你们提供的训练好的网络state_dict_73.98.pth;最后测试出来的结果为top1: 0.7082 top5: 0.8979;paper中写的是top1:73.9,top5:91.4
The text was updated successfully, but these errors were encountered: