-
Notifications
You must be signed in to change notification settings - Fork 12
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
没有weights/encoder,weights/decoder,weights/attention文件 #1
Comments
权重文件可以用自己的数据集训练。 |
请问是运行哪个文件能训练出权重文件呢?我试了三个python文件好像都不行 |
有个train的py文件 |
是下面这个train_chatbot.py的最后三行吗? |
这是把训练好的权重写进硬盘,要开始训练需要有pytorch的环境,然后直接python train_chatbot.py就开始了。 |
运行python train_chatbot.py以后没什么问题,结果: 这意思是让我实现建立一个'weights/encoder'吗,enconder文件后缀用什么 |
原来需要在目录中事先建立一个'weights‘文件就好了。。。建议您在github里添上这个空文件夹吧 |
最后想问下A_no_repeat和Q_no_repeat这两个文件怎么打开呀?需要用什么工具么 |
用pickle 加载 |
这跑到什么时候停止啊,现在已经是tensor(1.5055, device='cuda:0', grad_fn=),电脑太烫了 |
老哥能给说下这个到什么时候收敛么,再跑下去我怕电脑热炸了.... |
loss降到1e-4以下,看losses这个文本文件 |
请问下有什么办法能把loss迅速降到1e-4以下?按照您的算法,跑完这个需要几天时间吧?而且电脑一直特别烫的问题怎么解决。我32G,1080Ti的电脑,跑您这个程序,感觉对电脑有点担忧啊,您跑得时候也这么烫么? |
我大概用了两天,1080ti要快些。我用1080平均75度。 |
主板温度到了99度,GTX1080Ti温度87度,package id 0--68度也不知道是什么?主板这么高的温度我怕烤化了。。。 |
那是你电脑机箱有问题。:) |
是没安装散热器么 |
算了 我把model上传吧。 |
打不开这个网站,老哥把weights单独发我一份吧,[email protected] |
那我没办法了 几百兆我邮箱发不了,打不开就想办法打开。 |
实在打不开,哥你加我qq,然后压缩一下用qq发给我吧,648634000。多谢!!! |
OK,多谢! |
最后,如果我改变了训练语料库,得到了比小黄鸡语料更多的语料,是不是还要重新训练得到新的'weights‘?...我让师傅看看机箱吧,感谢! |
要的. |
請問我想使用自己的語料,不是小黃鴨的,請問原始的小黃鴨資料格式為何呢? 大感謝! |
需要分词,我是按照字分的,一个字对应一个one-hot编码。 |
請問您 train_chatbot.py裡,word_index_dict與index_word_dict這兩個變量是怎麼產生的呢? |
这是通过count每个字出现的次数统计得到的。 |
謝謝您,請問是在訓練集每句話 {問句+答句} 的全部的統計結果嗎? 比方說「鸡」,他的key是17,即: word_index_dict['鸡'] => 17,是重複了17次對嗎,不知道理解有沒有錯誤? for k,v in enumerate(word_index_dict, start=0): |
是在整个训练集上的字数统计,包含了问和答。 你的理解是对的,我是这么做的,你也可以分词,然后统计词出现的频率。 |
我使用了jieba分詞,無法變成您的單"字",以下是我的程式,方便參考您的作法嗎? import os, codecs def get_words(txt): if name == 'main': |
这样做应该可以得到词的统计。 |
您好,我在运行过程中发现缺少这三个文件,作者是不是忘记导出这些参数了?谢谢!
The text was updated successfully, but these errors were encountered: