chatgpt优化句子指令 中科院张家俊:ChatGPT中的提示与指令学习
迈向通用性的提示学习
一、预训练大模型的两种方向
预训练大模型主要是通过“预训练+参数微调”(Pre-+Fine-)和“预训练+提示学习”(Pre-+ )两种方式来实现下游任务的预测。
二、预训练+参数微调
“预训练+参数微调”是指大模型预训练后作为一个良好初始化的基础模型,从结构上适配每一个下游任务,并微调大模型的参数,使得下游任务的性能达到最优。譬如以大模型适应分类任务为例子,模型的实现方式是在预训练模型的最后一个节点增加一个简单的分类网络(),在训练过程中,不仅去更新分类网络的参数,也去更新整个预训练模型的参数。训练完成后,模型就能更适合分类任务,不过与此同时,模型具有的通用性就变弱了。面向序列标注、文本生成任务也是采用预训练+参数微调的方式来更新模型参数,模型的通用能力也会减弱。同样的情况可以推广到机器翻译、自动问答、情感分析的任务。
图 4 预训练+参数微调:适应分类任务
图 5 预训练+参数微调:适应分序列任务
图 6 预训练+参数微调:适应文本生成任务
图 7 “预训练+参数微调”范式
从上面这些例子做个总结,预训练+参数微调的方式能够在特定任务取得不错的效果,不过这种方式存在一些局限性。第一,预训练+参数微调的方式缺乏处理通用问题的能力。第二,需要针对每种任务都独立进行模型训练,资源占用过多。第三,会存在过拟合的问题,因为不是所有类型的任务都有大量的标注数据,在下游任务数据少的情况存在泛化能力方面的问题。
三、预训练+提示学习
“预训练+提示学习”指的是先对大型模型进行预训练,在后续的任务中保持参数不变,利用提示语的形式使预训练模型能够满足各种下游任务需求。具体来说,我们会将下游任务转换为预训练模型的输入输出格式,例如文本分类、序列标注和文本生成等任务都需要将文本输入格式化为预训练模型的输入格式chatgpt优化句子指令,并将预训练模型的输出转换为任务需要的输出格式,最终通过利用提示语激活大模型来完成特定任务。
我们针对几个常见的NLP任务来描述一下预训练+提示学习的处理过程。譬如有个文本分类场景要对“I love this film”这句评论来预测它表达的情感倾向是“”或“”。提示学习的处理办法是在“I love this film”句子后面加个提示语“Its is”,用语言模型来预测下一个词是什么,预测结果如果为“”或“”则可以作为最终预测结果,或者如果两个词都没命中,可以通过判断“”还是“”的概率更高,来完成整个任务的处理。其他的任务的处理过程是类似的,主要在于提示语有所区别。在处理词性标注时,是在句子后面添加提示语“Its POS is”,然后就按照语言模型的方式生成词性标注结果。在处理翻译的时候,是在句子后面添加提示语“Its is”,然后语言模型会预测输出“我真的喜欢这部电影”。
图 8 预训练+提示学习:分类任务适应大模型
图 9 预训练+提示学习:序列标注任务适应大模型
图 10 预训练+提示学习:文本生成任务适应大模型
四、提示语
提示语是预训练+提示学习里面的重要要素。怎么理解提示语呢,提示语就是插入到下游任务文本输入中的一段特殊文本,可以视为一组特殊参数,触发预训练大模型实现特定下游任务的同时,保持预训练大模型训练和测试一致。
提示语可以是离散的,也可以是连续的。离散的提示语比较常见,上面提及的提示语就是离散提示语。离散提示语的产生主要有两种方式:人工分析特定的下游任务,总结下游任务的规律,设计适合特定下游任务的提示语;通过从文本数据中自动搜索的方式找到合适的完成特定下游任务的提示语。为每个任务每个样本找到合适的提示语是一个巨大挑战,不同提示语导致显著的结果差异。
连续提示语则是在输入文本或者模型中加入一组连续向量代表具有泛化能力的提示语。连续提示语有两种添加方式,一种是直接在文本输入前添加[5]chatgpt优化句子指令,一种是网络或者每层网络前添加连续向量表示提示语[6]。
图 11 连续提示语
五、对比分析
我们对“预训练+参数微调”和“预训练+提示学习”两种方式进行对比。
两种方式最重要的区别是在支持下游任务的形式[7]。下图中“预训练+参数微调”的大模型需要针对不同任务来对参数进行调整,“预训练+提示学习”只需要通过设计提示信息来修改输入模式,使得让它具有完成下游任务的能力。
图 12 “预训练+参数微调” VS “预训练+提示学习”
虽然“预训练+提示学习”有显著的优点,不过在2020年前相关方向的研究成果较少。这是因为之前的模型规模较小、通用性比较弱,不适合提示学习,适合参数微调。而到了2020年后,模型规模有大幅提升,微调的成本也随之提升,同时通用性强,适合提示学习。
图 13 从“预训练+参数微调”到 “预训练+提示学习”
下图的蓝线是GPT-3在45个任务上的Zero Shot性能,准确率平均在30%左右,效果还是比较弱的。这说明提示学习能够触发预训练大模型完成特定任务,但是单一的外部提示信号难以最大限度地激发预训练大模型的能力,从而高质量地完成具体任务。
图 14 GPT-3在45个任务上的性能
从提示学习到指令学习
“预训练+参数微调”通过具体任务的监督数据微调模型参数,能够最大限度地激发预训练大模型完成特定任务的能力,但是面临数据稀缺、灾难遗忘、资源浪费、通用性弱等难题。“预训练+提示学习”通用性强,但是在具体任务上效果偏弱。所以研究者考虑更好整合两者的优势,让大模型更好理解具体任务的执行意图,所以就有了从提示学习到指令学习的过渡。“参数微调”、“提示学习”、“指令学习”的执行逻辑如下:
图 15 大模型+指令学习
下面看一个提示学习的例子,还是以机器翻译、问答和情感分类作为任务场景,原来是每个任务场景对应一个模型chatgpt优化句子指令,现在把所有任务的形式转变为语言模型的形式。譬如处理翻译任务时,把提示语的信息插入文本得到“‘I love ’的中文翻译是”。不同的样本可以使用不同的提示语来保证一定差异性。然后把所有任务的标注数据合并在一起,作为一个统一的任务执行参数微调。所有数据经过训练之后得到一个新的大模型,新的大模型可以再利用提示语触发大模型去完成特定的能力,结果是能够支持不同任务的同时也提升了多任务的执行效果。
图 16 “大模型+指令学习”适应下游任务
图 17 谷歌FLAN模型
这是当时谷歌提出来FLAN的例子,左上角是预训练+微调,左下角是提示语,右边是FLAN的指令学习,是前两者的结合。FLAN在数十个任务上微调,发现它在未见的任务上也有预测能力。举例来说,FLAN在对常识推理、翻译等任务进行微调后,会发现训练好的模型会在自然语言推断任务上具备不错的预测效果。所以FLAN在62个数据集40多个任务上进行了训练,任务包含理解和生成两种形态。实验结果发现当参数达到百亿规模以上,几十个任务的联合指令学习就可以解决未知的任务。
图 18 FLAN展现的未知任务的预测能力
图 19 FLAN使用的文本任务数据集
图 20 百亿参数规模模型多任务联合学习可以解决未知任务
FLAN的重大发现对后续的工作起到了指导作用。在此基础上,的前身 GPT收集了API指令,这样它的指令 类型更丰富,覆盖的范围越大,在此基础上的训练更触发了它的通用能力。
大语言模型的相关探索和实践
一、如何寻找最佳的提示语
上文提示学习的内容提到,提示语对预测效果有显著影响。下面的例子展示了在处理同样的文本翻译时,采用了不同的提示词(“中文翻译是什么”和“用中文怎么说”),返回的结果差异非常大。此时如何提升模型效果的问题可转化为,如何找到不同问题的最佳提示语,有没有一种方法自动学习提示语。
图 21 不同提示语对文本翻译结果的影响
二、样本级提示学习方法
针对上述问题,我们提出一种样本级提示学习方法[10],为每个样本学习最合适的提示语。执行的方式为,来了新的样本时,模型会结合输入的提示语和文本,根据相关性去搜索最相关的提示语,作为语言模型的输入。这种方法的优势是最大限度地建模了不同样本的独特性,相比于相同的提示语取得更好的性能提升,不过存在的不足之处是未考虑样本间的共性,也即忽略了不同的样本实际上属于同一种任务的事实。
图 22 样本级提示学习方法
三、统一提示学习方法
鉴于样本级提示学习方法只考虑样本、没有考虑到任务的共性,所以我们进一步提出了统一提示语学习的方法[11],可以同时建模任务级的信息和样本级的信息。它的处理办法是为每个任务学习一个提示,为任务中的每个样本学习一个提示,两类提示信息进行融合,获得最佳提示。下图是统一提示学习方法的架构,灰色的部分参数不变,蓝色的部分是非常小的参数量,一个是从样本学到样本级的参数,一个是每个任务有对应的参数。通过这个结构模型能够判断每个样本应该用多少任务级的信息、多少样本级的信息,最终为每个样本学到最合适的提示。
图 23 统一提示学习方法
统一提示学习方法优势是同时结合了任务信息和样本信息,理论上可以获得最佳的提示信息。存在的不足是需要提前知道任务信息,需要进一步的泛化。相比之下目前在不知道请求的任务是什么的情况,也能够感知到任务的具体类型,有较大优势。后续研究拓展方向可以通过感知的方式判断任务的信息,在跟任务信息已知的基础上再去学习任务和样本相关的泛化。
四、实验效果
实验结果验证了统一提示学习方法在标准数据集上取得少样本学习的最佳平均性能。在数据集上发现,统一提示学习方法比GPT-3在上下文推理能力能力更优(单句子任务的平均任务得分分别为83.2和70.0,句子对相关任务的平均得分为72.0和49.8),这说明了学习提示对提升模型效果非常有效,如何找到最佳提示语非常关键。
图 24 统一提示学习方法在标准数据集单句子任务上的效果
图 25 统一提示学习方法在标准数据集双句子任务上的效果
开放性问题思考
一个月前写了《八个技术问题的猜想》,后来一直在做模型探索,整理了一些开放性问题与观众读者探讨:
第一,实践发现数据不仅仅决定模型性能,还能极大影响模型训练过程的成败,其中的原因是什么。Meta去年发布几个模型,在训练过程中失败挂掉了二十多次,每一次数据会影响数据的训练是否成功。
第二,能力涌现是如何发生的?为什么会在百亿参数规模以上才会体现出来?或者并非涌现,只是模型规模测试不够连续。
第三,中文等语言的数据占比非常少,例如只有不到5%,而模型的中文表现却非常好?能力迁移是如何发生的。
第四,大模型的能力能否蒸馏到小模型。
第五,作为黑盒的通用大模型似乎与人脑有相似之处,未来是否可以采用脑科学研究范式研究大模型。
参考文献
[1] A, N, N, et al. is all you need[J]. in , 2017, 30.
[2] Wei J, M, Zhao V Y, et al. are zero-shot [J]. :2109., 2021.
[3] J, F, P, et al. [J]. :1707., 2017.
[4] Von L, S, K, et al. –A and of into [J]. IEEE on and Data , 2021, 35(1): 614-633.
[5] B, Al-Rfou R, N. The of for - [J]. :2104., 2021.
[6] Li X L, P. -: for [J]. :2101., 2021.
[7] Liu P, Yuan W, Fu J, et al. Pre-, , and : A of in [J]. ACM , 2023, 55(9): 1-35.
[8] Wei J, M, Zhao V Y, et al. are zero-shot [J]. :2109., 2021.
[9] L, Wu J, X, et al. to with [J]. in , 2022, 35: -.
[10] Jin F, Lu J, J, et al. - for and [J]. :2201., 2022.
[11] Jin F, Lu J, J,et al. pre- few-shot . 2023.
相关文章:“翻译技术沙龙”第十三次活动 ——计算机辅助翻译与译后编辑 NLP 是一个力气活:再论成语不是问题 如何计算两个文档的相似度全文文档 AI 2018 细粒度用户评论情感分析
文章导航
“国产类 ”所存在的差距与挑战-专家圆桌
新浪张俊林:大语言模型的涌现能力——现象与解释
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表本站的观点和立场和对其真实性负责。如需转载,请联系原作者。如果来源标注有误或侵犯了您的合法权益或者其他问题不想在本站发布,来信即删。
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系本站删除。