Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

finetune 的效果很差 #350

Open
HongChow opened this issue May 2, 2020 · 5 comments
Open

finetune 的效果很差 #350

HongChow opened this issue May 2, 2020 · 5 comments

Comments

@HongChow
Copy link

HongChow commented May 2, 2020

可能是还没搞明白原理, finetune的效果真的很差...............

@shining-love
Copy link

可能是还没搞明白原理, finetune的效果真的很差...............

你好,你说的差是指什么?是微调时的训练精度低,还是其他什么情况?

@HongChow
Copy link
Author

HongChow commented Jul 3, 2020

可能是还没搞明白原理, finetune的效果真的很差...............

你好,你说的差是指什么?是微调时的训练精度低,还是其他什么情况?

你好, finetune之后训练出来的系数 在测试检验的时候精度很低
但,如果用海量的数据集重新训练,精度是可以的.

BTW, 谢谢你的回复.

@shining-love
Copy link

可能是还没搞明白原理, finetune的效果真的很差...............

你好,你说的差是指什么?是微调时的训练精度低,还是其他什么情况?

你好, finetune之后训练出来的系数 在测试检验的时候精度很低
但,如果用海量的数据集重新训练,精度是可以的.

BTW, 谢谢你的回复.

你好。请问你有英文和数字的数据集吗?我想重新训练试试,还有用自己的数据集训练有个问题,如果是不定长的图片,图片的宽度和高度也不一致。那么直接resize会造成文字变形,请问该如何解决?

@fire717
Copy link

fire717 commented Aug 20, 2020

可能是还没搞明白原理, finetune的效果真的很差...............

你好,你说的差是指什么?是微调时的训练精度低,还是其他什么情况?

你好, finetune之后训练出来的系数 在测试检验的时候精度很低
但,如果用海量的数据集重新训练,精度是可以的.
BTW, 谢谢你的回复.

你好。请问你有英文和数字的数据集吗?我想重新训练试试,还有用自己的数据集训练有个问题,如果是不定长的图片,图片的宽度和高度也不一致。那么直接resize会造成文字变形,请问该如何解决?

最好是通过padding到固定尺寸,就不会变形,如果太短,远小于280,可以考虑多个图片拼接。

@Cocoalate
Copy link

可能是还没搞明白原理, finetune的效果真的很差...............

你好,你说的差是指什么?是微调时的训练精度低,还是其他什么情况?

你好, finetune之后训练出来的系数 在测试检验的时候精度很低
但,如果用海量的数据集重新训练,精度是可以的.
BTW, 谢谢你的回复.

你好。请问你有英文和数字的数据集吗?我想重新训练试试,还有用自己的数据集训练有个问题,如果是不定长的图片,图片的宽度和高度也不一致。那么直接resize会造成文字变形,请问该如何解决?

请问你尝试了楼下提的padding方法么?效果怎么样?我这边最长的图片可能是短图片的三倍多了,怕都按照最长的图片的size做padding会不太好

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

4 participants