-
Notifications
You must be signed in to change notification settings - Fork 40
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
About parameter Settings during training #21
Comments
(1) 看起来剪坏了,建议把剪枝间隔设久一点试试,像 prune.py 里 resrep 方法的参数 (2) resrep吗?剪枝的那一次迭代会掉点,之后继续训一般还能恢复些。 |
(1)好的,谢谢前辈,您给的resrep示例中我看到是200次迭代进行一次压缩,我的数据量更多,我修改了您在训练时的部分代码如下: begin epoch
总结来说,由于语音方向回归模型数据量庞大,我没有按照您原来设置的迭代次数进行压缩,而是每个epoch压缩一次,那我改写下尝试2-3个epoch或者1.5个epoch等同的迭代次数来设置压缩频次。 |
我只记得在cifar10上的resnet,训练期间验证集的精度不断涨,碰到剪枝就掉一点再继续涨,loss没印象了。 |
好的,谢谢前辈解答 |
前辈您好,首先感谢您提供的方法,我在回归模型上复现您的方法时,出现了较大的性能损失,可以向您请教几个问题吗?
(1)在加载预训练好的模型后,算法在边训练边压缩,这个过程中的训练/验证性能和loss如下图所示,在正常的模型训练中属于异常情况,请问下压缩阶段属于异常情况吗?
(2)在您提供的样例中,压缩达到目标压缩率后在设定的epoch之前仍将继续训练,这会在压缩的基础上有性能恢复效果吗?
十分感谢您的阅读和解答,祝您在工作和生活中一切顺利!
The text was updated successfully, but these errors were encountered: