近日,中国科学院软件研究所天基综合信息系统全国重点实验室研究团队提出了一种新颖的提示学习方法BayesPrompt,该方法通过探索以去偏方式近似下游任务的完整训练域,为预训练语言模型提供去歧义指导。相关论文被机器学习领域顶级学术会议ICLR 2024接收。
研究人员认为,学习范式长期存在的问题之一是下游域的训练样本中仅包含有限且离散的语义信息,无法较好地支持传统可训练提示获得足够监督,使得生成的提示对预训练语言模型的指导变得微乎其微。这个问题导致了预训练语言模型在下游域,尤其在少样本场景下性能的下降。
为此,研究团队从分布视角重新审视了预训练语言模型下游推理的原理,认为训练样本的有限会使得可训练提示只学习到目标域的有偏分布,而有偏分布仅包含部分信息且与目标域的实际分布不一致,这会引起协变量偏移问题,从而导致预训练语言模型产生知识歧义。
此次新提出的BayesPrompt旨在进行去偏域抽象,利用已知分布来近似下游域的去偏真实分布,再从近似分布中均匀采样代表性特征以生成对预训练语言模型(PLMs)的提示。研究团队通过进一步的理论验证,证明了与基准方法相比,BayesPrompt在预训练语言模型的下游推理上获得了更紧致的分类误差上界。此外,在少样本数据集设置下的实验结果进一步证明了BayesPrompt的有效性。
相关论文信息:https://arxiv.org/abs/2401.14166
代码地址:https://github.com/FF2127/bayesprompt
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:
[email protected]。