QAnything [BUG] 在使用Qwen-14B模型后,出现了问题质量变差、回答格式错乱以及泛化能力丢失的情况,

sz81bmfz  于 5个月前  发布在  其他
关注(0)|答案(2)|浏览(137)

Spring来了,大地回春。\n万物复苏,花开满园。\n春风拂面,温暖宜人。\n蝴蝶飞舞,鸟儿欢唱。\n人们穿上轻薄衣裳,\n走出家门,享受阳光。\nSpring啊,你是大自然的礼物,\n让我们感受到生命的力量和美好。

复现方法 | Steps To Reproduce

通过界面提问:“用C语言写一段冒泡排序代码”“以Spring问题作一首诗”之类的问题,可以看到泛化能力全失

备注 | Anything else?

使用14B模型后,部分语料确实能学的更加精准相识,但是泛化能力几乎完全丧失。这可能是因为14B模型等第三方大模型在训练过程中学到了很多通用知识,但在特定场景下可能无法很好地适应。因此,在使用这些模型时,可能需要与QAnyting进行微调,以提高其在特定任务上的泛化能力。

sd2nnvve

sd2nnvve1#

遇到同样的问题

2g32fytz

2g32fytz2#

首先,QAnything实际上是针对聊天进行了微调的模型。如果想要更换其他模型,不能直接使用QWen-14B这种基座模型。其次,需要加上-t qwen-7b-chat参数以使用Qwen的提示词(支持的模型名单可以查看/third_party/FastChat/fastchat/conversation.py)。如果你想要使用的模型不在名单中,请自行处理提示词问题。

相关问题