11得票1回答
应用PEFT / LoRA于不同模型的目标模块

我正在查看几个不同的使用PEFT在不同模型上的例子。LoraConfig对象包含一个target_modules数组。在一些例子中,目标模块是["query_key_value"],有时是["q", "v"],有时是其他东西。 我不太明白目标模块的值来自哪里。在模型页面的哪个位置可以找到Lo...

9得票1回答
OpenAI GPT-3 API:微调一个已经微调的模型?

OpenAI的fine-tune API中model属性的文档有点令人困惑: model 要进行fine-tune的基础模型名称。您可以选择其中之一:"ada"、"babbage"、"curie"、"davinci"或2022-04-21后创建的经过fine-tune的模型。 我的问题...

8得票2回答
指令调优与非指令调优大型语言模型的区别

什么是指令调优和大型语言模型的正常微调之间的区别? 我所指的指令调优并不是上下文/提示式的那种。 最近关于微调的所有论文似乎都是关于指令调优的。 我看过一些关于微调/指令调优(例如FLAN)的论文,但没有一个真正描述指令调优与其他选择(无论是什么选择)之间的区别。 我理解指令调优是一种...

8得票1回答
如何确保答案来自定制(微调)数据集?

我正在使用带有“提示”和“完成”的自定义文本来训练新模型。 这是我用来创建自定义模型的教程: beta.openai.com/docs/guides/fine-tuning/advanced-usage 然而,即使在对模型进行训练并向模型发送提示文本之后,我仍然得到了一些通用的结果,这些...