加了元学习之后,少样本学习竟然可以变得这么简单

去年年初 GPT-3 的论文在 arxiv 上出现,论文名为 “Language Models are Few-Shot Learners”,引起一阵轰动。

加了元学习之后,少样本学习竟然可以变得这么简单

作者 | Rukawa_Y
编辑 | Sheryc_王苏,小轶
去年年初 GPT-3 的论文在 arxiv 上出现,论文名为 “Language Models are Few-Shot Learners”,引起一阵轰动。除了前无古人的模型规模外,最抓人眼球的是, GPT-3 能够不需要 fine-tuning 进一步更新参数,直接解决下游任务。
这种完全依赖语言模型从预训练过程中习得的推理能力,通过上下文语境(task description)直接解决新任务的方式,叫做语境学习(in-context learning)。然而利用语境学习让模型学会处理一个新的任务的方法效果往往比不上传统的微调,预测的结果也有很大的方差,并且如何把多种多样的任务转化为语境的模版(Prompt)是很难被设计出来的。
近期,Facebook AI 实验室所发表的论文 MetalCL: Learning to learn in context ,提出了一种训练方法MetalCL,通过元学习的方式让模型更加简单有效地进行语境学习——不需要在输入中提供任务描述模板,只需提供训练样例和目标输入。论文作者希望通过在元训练任务上进行多任务学习,让模型能够自动学习到如何通过输入中的少量训练样本重构任务信息,从而省去人工设计模板的麻烦。
论文标题
MetaICL: Learning to Learn In Context

论文链接
https://arxiv.org/pdf/2110.15943.pdf

1


语境学习的几种情况

根据GPT-3的论文,语境学习分为 3 种情形,分别是:零样本学习(Zero-shot Learning)、单样本学习(One-shot Learning)和少样本学习(Few-shot Learning)。

加了元学习之后,少样本学习竟然可以变得这么简单

  • 零样本学习(Zero-shot Learning):在模型输入中只提供任务描述和测试样例输入,得到测试样例输出;

  • 单样本学习(One-shot Learning):在模型输入中提供任务描述、一条训练样例和测试样例输入,得到测试样例输出;

  • 少样本学习(Few-shot Learning):在模型输入中提供任务描述、少量训练样例和测试样例输入,得到测试样例输出。

GPT-3 的论文的实验结果中,表明 GPT-3 这3种情况均取得了一定的效果,这里有不再展开了,有兴趣的同学可以看看 GPT-3 的论文。


2


MetaICL介绍

了解了语境学习之后,相信大家都会被这种通过推理就能学习一个新的任务的,并且无需任何参数更新的学习方式所吸引。然而利用语境学习让模型学会处理一个新的任务的方法效果往往比不上传统的微调,预测的结果也有很大的方差,并且如何把多种多样的任务转化为语境的模版(Prompt)是很难被设计出来的。基于这些挑战,也就是如何让模型在语境学习中所学习到的新的任务效果更好,MetaICL应运而生了。

MetaICL,全称Meta-training for In-context Learning。其中先对模型进行元训练(Meta-training),让模型学会如何根据数据集自动调整语境学习策略,然后再进行语境学习。在Meta-training的过程中,论文的作者使用了数十个不同领域的NLP的任务作为元训练任务(Meta-training Task)对于模型进行训练,来提升模型进行少样本学习的能力。在这一训练过程中,MetaICL的优点在于不需要在输入中提供任务描述模板,只需提供训练样例和目标输入:论文作者希望通过在元训练任务上进行多任务学习的策略,让模型能够自动学习到如何通过输入中的少量训练样本重构任务信息,从而省去人工设计模板的麻烦。

MetalCL的具体的训练过程是:对于每一个元训练任务,利用K-shot Learning,将元训练任务中随机抽取出的任务中的
个样本的

,和第
个样本的
连接起来作为一个输入,输入到模型中,预测对应的第
个样本的
。其中,前
个样本相当于提供了对于任务的描述信息。MetalCL推测的过程也采用了与训练过程相同的输入方式来处理预测的样本:不需要任务描述,只需将该任务的
个训练样本与目标输入相拼接即可。

总结一下MetalCL的流程如下:
  • Meta-training
    • 从准备好的大量的元训练任务中,随机抽取出一个任务

    • 从任务
      中抽取出
      个样例

    • 利用模型最大化概率,loss损失函数为交叉熵
  • Interence
    • 对于一个meta-training中没有见过的任务,获取
      个样例
      和预测的输入

    • ,其中
      是输出
      所有可能的结果的集合。

除此之外,论文的作者还借鉴了在少样本的文本分类任务中的一种噪声通道[1]的方式,将元训练过程中的目标函数变换为
。即在噪声通道模型中,,将
定义为
,那么目标函数则变换为最大化概率
,即最大化概率,对应在推理阶段模型则是计算



3


实验结果
论文中作者使用GPT-2 large进行MetalCL训练,元训练过程中一共使用了142个元训练数据集,这142个数据集包含了文本分类、QA、NLI和paraphrase detection等任务。论文作者在实验过程中对于Meta-training采取了7种设置,对Target采取了5种设置,并且在Meta-training和Target所使用的任务是没有交集的,具体的设置如下:
  • HR-LR:从大数据集迁移至小数据集,在meta-training过程中使用HR(High resource)即大于等于10000训练样本的数据集,在target的过程中使用LR(Low resource)即小于10000的数据集。
  • Classification/QA:元训练与预测使用相似任务,在meta-training过程中使用Classification和QA的数据集,在target的过程中也使用Classification和QA的数据集。
  • NLI/Paraphrase:元训练与预测使用不相似任务,在meta-training过程中使用Non-Classification、Non-QA、Non-NLI、Non-Paraphrase的数据集,在target过程中使用Classification、QA、NLI、Paraphrase的数据集。
Meta-train和Target所采取的设置总结如下,见表格:
加了元学习之后,少样本学习竟然可以变得这么简单

最终实验结果里作者将MetaICLChannel MetalCL同其他baseline做了比较,实验结果如下:

加了元学习之后,少样本学习竟然可以变得这么简单

表格中各个method的意义如下:

  • 0-shot:使用预训练语言模型直接做零样本推断
  • In-context:使用预训练语言模型进行few-shot的推断
  • PMI 0-shot, PMI In-context:使用PMI[2]方式的零样本和few-shot的推断
  • Channel 0-shot,Channel In-context:使用通道模型的零样本推断和使用通道模型的few-shot推断
  • Multi-task 0-shot:使用meta-training对于预训练模型进行训练然后进行零样本推断
  • Channel Multi-task 0-shot:使用通道模型的Multi-task 0-shot
  • Oracle:基于任务对于预训练模型进行fine-tuning
  • Oracle w/meta-train:对预训练语言模型进行meta-training,然后再进行fine-tuning

从表格中我们可以得到如下的结论:

对于模型来说,在元训练/目标任务相似,即不进行任务迁移的情况下:

  • 使用Meta-training训练模型然后进行0样本的任务学习(Multi-task 0-shot)的效果比普通的语言模型直接进行语境学习的效果更好,说明Meta-training的确是对于模型是有帮助的。
  • 使用MetalCL训练的模型,不论是普通的语言模型还是Channel语言模型均取得了不错的效果,尤其是Channel MetaICL在大部分的实验设置的情况下的效果是最好的。
在需要进行任务迁移的情况下:
  • 使用MetalCL训练的模型的效果并没有收到太大的影响,并且仍然在大部分的实验设置的情况下的效果是最好的。

而将MetalCL训练的模型同Fine-tuning的模型比较时:

  • 使用MetaICL的方法有时能够取得超过直接在目标任务进行Fine-tune的方法,并且Oracle w/meta-train的结果还说明了meta-training对于Fine-tuning也有帮助。
除了上面的结论,作者还将使用MetaICL训练的GPT-2模型同GPT-J进行了比较,实验结果如下:
加了元学习之后,少样本学习竟然可以变得这么简单

从表格中还可以看出MetalCL训练的语言模型在许多领域的模型效果基本上跟GPT-J差不多,有些领域甚至要比GPT-J好。

最后论文作者还进行了Ablation study,主要内容分为两点:

  • 分析了Meta-training中元训练任务的个数的影响:论文的作者对于HR->LR实验采取了子采样,分别从61个任务数据集中抽取了{7, 15, 30}个数据集分别进行训练,实验结果如下图所示,从图中可以看出,在不同的元训练任务数目上的实验,Channel MetaICL的效果始终是最好的;除此之外,整体上元训练任务越多,MetaICL的性能越好。
加了元学习之后,少样本学习竟然可以变得这么简单
  • 分析了Meta-training中元训练任务的差异的影响:论文的作者对于HR->LR实验采取了两种设置,也就是对于61个任务数据集分别采取了两次采样,每次采样的任务数据集的个数为13,其中一次采样的元训练任务差异性很大,任务分别有QA,NLI,关系抽取,语义分析等等,另一次采样的元训练任务差异性较小,仅仅包含语义分析,主题分类,恶意文本检测。论文的作者在这两种设置下分别进行了实验,实验结果如下表所示。可以看出使用差异性较大的元训练任务会带来更好的结果。

加了元学习之后,少样本学习竟然可以变得这么简单
  • 析了任务描述是否对于MetalCL有帮助:虽然MetaICL不需要任务描述,论文的作者依然试验了在MetaICL中使用任务描述是否会带来进一步的性能提升。作者在HR->LR实验中使用了32个meta-training任务和12个目标任务,这些任务均是提供了人工撰写的任务描述,可以看出加入任务描述后MetaICL效果有着进一步的提升。

加了元学习之后,少样本学习竟然可以变得这么简单



4


总结

本文介绍了一种MetaICL的训练方法,通过这种训练方法可以让模型通过元训练更好更简单地进行语境学习。同时笔者认为MetaICL也算是一种大力出奇迹的方法吧。这其实可以给予我们一些启发:

  • 对于一个语言模型,不论要使用这个语言模型进行什么样子的任务,当让模型尽量多的见识各种各样的任务之后(这里什么任务能够对模型提升比较大也是值得继续去研究的),即使是对于没见过的任务,不论是零样本学习还是语境学习,模型均能取得不错的效果。

  • MetalCL算是一种基于大规模语言模型的一种训练方法,对于容量较小的模型,笔者认为MetaICL是否还能起到很好的效果也是值得去探究的。

  • 论文中还提出对于一个语言模型进行了MetalCL之后,再进行Fine-tuning,最终模型的效果是比直接对于模型进行Fine-tuning要好的。在拥有大量不同任务的数据集时,可以考虑在Fine-tuning之前先对模型进行MetalCL训练,或许可以进一步提升模型效果。

参考文献:

[1] Noisy channel language model prompting for few-shot text classification.

[2] Surface form competition: Why the highest probability answer isn’t always right.



GAIR 2021大会首日:18位Fellow的40年AI岁月,一场技术前沿的传承与激辩

2021-12-10


致敬传奇:中国并行处理四十年,他们从无人区探索走到计算的黄金时代 | GAIR 2021

2021-12-09


时间的力量——1991 人工智能大辩论 30 周年纪念:主义不再,共融互生|GAIR 2021

2021-12-12


未来已来,元宇宙比你想象中来得更早丨GAIR 2021

2021-12-12


免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/89354.html

(0)

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

关注微信