prompt tuning 是llm 微调的一种方法。
prompt tuning的主要思想就是,冻结主模型的全部参数,只对embedding层的参数进行一些参数进行更新。在训练数据前加一段propmpt,只训练prompt的表示层,将prompt的embedding和原来模型的embedding拼接在一起组成新的embedding。
我们可以使用 peft 对模型进行prompt tuning 。prft 可以直接使用 pip install peft 进行安装。
使用peft进行prompt tuning时有两种方式,soft prompt 和 hard prompt。通常来说hard prompt 的收敛速度不如soft prmpt