-
Notifications
You must be signed in to change notification settings - Fork 441
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
用 openai_api_server.py 运行 glm-4-9b-chat 可能会重复输出 #599
Comments
我也是这样的,这种结构化的输出编写了一两百的训练数据用LoRA微调一下应该就可以了。 |
请教一下你运行openai_api_server.py的vllm版本和transformers版本,我也想跑这个,但老报错 |
GLM-4使用vllm 0.5.x的版本可以正常运行,GLM-4暂时不支持最新版本的vllm,transformers版本最好<=4.44 |
用 安装了
问题依旧。 |
大概是怎样的训练数据呢?因为我之前的测试是微调后反而更容易出现这种无限重复输出的问题。 |
@oubeichen
我看你的例子,大概就是把文章内容填入"user"的"content",然后把你想要的输出比如 |
@sixsixcoder 请问是如何完成的呢?应该不是使用LoRA自己微调吧?我之前试过,在其他情况下出问题概率更大,会有其他更多答非所问的,在生产环境无法接受,所以现在很少使用。 |
System Info / 系統信息
以前也有类似问题,#476
Python 3.11
RTX 4090 x 2
今天发现问题之后, 我现在下载了最新 modelscope 上的 tokenization_chatglm.py (129d6b0e) 和 最新的 basic_demo(4e9b473),并新建环境安装了里面的 requirements.txt(取消注释了 vllm 那一列手动安装了 vllm 0.6.2, torch 被降级到了 2.4.0. )
因为内容比较短,我直接使用全默认值(最大长度8092, 单显卡),除了 MODEL_PATH 指向了本地目录.
Who can help? / 谁可以帮助到您?
@zRzRzRzRzRzRzR @zhipuch
Information / 问题信息
Reproduction / 复现过程
请求 python代码如文件:
request.txt
本质上就是如下这么一段对话,我现在的提示词比这复杂多了,但用原来issue的那套提示词的这个例子足够了.
之前能够在每段对话前后加上换行解决,这次前后也加上了换行但问题依旧.
返回结果:
Expected behavior / 期待表现
正常输出结果.
感觉模型本身大概就是这样子了,主要看看有没有什么通用的办法去避免这个问题.
The text was updated successfully, but these errors were encountered: