OpenAI强化微调:模型定制的新突破
一、强化微调的定义
OpenAI的强化微调(Reinforcement Fine - Tuning,RFT)是一种新型的模型定制技术。它允许企业组织、开发者、研究人员和机器学习工程师等根据自己的数据来微调OpenAI的模型,例如o1mini模型,以满足特定需求,而不是仅仅依赖公开可用的数据。其运作方式不是简单地教模型输出,而是当模型遇到一个问题时,研究者给予模型思考这个问题的空间,然后对模型给出的最终解答进行评估。运用强化学习,强化产生正确答案的思路,抑制产生错误答案的思路。并且,只需要几十个例子甚至12个例子,模型就能以有效的新方式学习特定领域的推理,这大大减少了所需的数据量。通过这种方式,可以将OpenAI强大的推理模型定制为在特定领域(如法律、金融、工程、医疗保健等)具有专家级推理能力的模型,提升模型在特定领域任务中的推理能力和准确性。
例如在内测中,通过强化微调o1mini模型,在生物化学、安全、法律和医疗保健等领域都取得了成功。像在与汤森路透的合作中,运用强化微调后的o1mini充当法务助理,帮助法律专业人士完成大部分分析工作流。
二、强化微调的相关技术原理
(一)与监督式微调的区别
强化微调与监督式微调不同。监督式微调主要是让模型模仿输入中的特征,可用于修改模型的语气、样式或响应格式等,而强化微调专注于教模型以全新的方式进行推理,不是简单地让模型模仿输入。例如,在处理一个医疗诊断任务时,监督式微调可能只是让模型学习已有的病例输入输出模式,而强化微调则是让模型学会如何从病例中进行推理得出诊断结果,即使这个推理过程与已有的输入模式不完全相同。
(二)强化学习算法的运用
强化微调利用强化学习算法。在这个过程中,会涉及到评分器(graders)的使用。评分器会比较模型输出与正确答案,然后返回一个0到1之间的分数,0表示模型的输出中不包含正确答案,而1表示正确答案在输出的第一个位置。根据这个分数,模型可以知道自己的答案与正确答案的差距,从而调整推理思路,强化正确的推理路线,抑制错误的推理路线。例如在一个基因预测任务中,如果模型预测的基因位置与正确答案位置接近,评分器给出较高分数,模型就会朝着这个正确的方向进一步强化推理过程。
三、强化微调面向的群体和应用领域
(一)面向群体
OpenAI鼓励研究机构、高校和企业申请使用强化微调,特别是那些目前由专家领导执行一系列狭窄复杂任务,并且将受益于人工智能协助的机构。这些群体往往拥有特定领域的数据和专业知识,可以利用强化微调技术来定制符合自身需求的AI模型。
(二)应用领域
强化微调在结果具有客观“正确”答案,且大多数专家会同意的任务中表现出色,因此在法律、保险、医疗、金融、工程等领域会有更好的表现。例如在法律领域,可以创建能够协助法务人员进行法律分析的模型;在医疗领域,可以帮助医生进行疾病诊断、基因预测等任务;在金融领域,可以进行风险评估、投资分析等。在伯克利大学罕见遗传病研究员JustinReese的研究中,o1加上强化微调就有助于解决罕见疾病的诊断问题,因为罕见疾病诊断既需要医学专业知识,还必须基于生物医学数据进行系统性推理,强化微调后的模型能够满足这样的需求。
四、强化微调的流程
(一)数据准备
训练数据集
首先需要准备训练数据集,它是一个.jsonl文件,其中每一行都是一个训练样本。例如在一个基因预测的示例中,数据集中可能包含病例报告(包含基本信息、症状以及没有的症状)、指令等内容。不过在强化微调的训练过程中,模型并不能看到正确答案。
验证数据集
还需要上传一个验证数据集,验证数据与训练数据的格式完全一样,但内容没有重叠。其目的是验证模型能否在该任务上进行泛化,而不仅仅是记住了训练数据。
(二)模型微调操作
设置评分器
要设置一个评分器,它会比较模型输出与正确答案,并返回0到1之间的分数。如果任务的输出结果不是列表形式,OpenAI也提供了其它评分器来适应不同的任务需求,并且他们也在不断增加更多评分器,未来也会支持用户自己定制的评分器。
调整超参数(可选)
用户还可以选择调整模型种子和一些超参数,包括批量大小、学习率乘数、epoch数量等。
执行微调
完成上述设置后,点击Create,然后等待一段时间(根据具体任务的不同,这个训练过程可能需要数小时到数天时间),就可以得到经过强化微调的定制模型。
五、强化微调的优势和局限性
(一)优势
少量数据高效学习
强化微调只需少量示例(几十个甚至12个例子)就能训练出专家级模型,与传统的微调方式相比,大大减少了对大量数据的依赖。这对于一些难以获取大量数据的领域或者小型项目来说非常有利。例如一些小众的研究领域或者特定企业内部的特定任务场景,可能没有海量的数据,但依然可以通过强化微调来定制有效的模型。
显著提升性能
能够将模型性能从高中水平提升到专家博士水平,可以显著提高模型在特定领域任务中的推理能力和准确性。从OpenAI的演示中可以看到,经过强化微调后的o1mini测试通过率有明显提高,如正式版o1的测试通过率为25%,o1mini为17%,而强化微调后的o1mini竟然达到31%,比正式版o1的测评结果高24%,而且相比未强化微调前,微调后的结果提高了82.3%。
定制化能力强
支持用户利用自己的黄金数据集创建独特的模型,从而满足不同领域、不同任务、不同组织的特定需求。例如企业可以根据自身的业务数据定制专门用于内部流程优化、客户服务、风险评估等的AI模型,研究机构可以针对特定的研究课题定制模型。
推理能力提升
专注于教模型推理与解决问题,而不是简单地模仿输入数据。这使得模型能够在特定领域内以新的方式进行推理,处理复杂的任务。比如在法律领域,模型可以通过强化微调学会根据法律条文和案例进行推理,而不是仅仅复制已有的法律文书格式或内容。
(二)局限性
对数据质量要求高
虽然需要的数据量少,但对数据质量要求较高。因为模型是基于这些数据进行推理和学习的,如果数据存在偏差、错误或者不完整,可能会导致模型的推理结果不准确。例如在医疗领域,如果训练数据中存在错误的诊断结果或者不完整的症状描述,那么经过强化微调后的模型在实际应用中可能会给出错误的诊断建议。
适用领域有限制
更适合在结果具有客观“正确”答案,且大多数专家会同意的任务中。对于一些主观判断较多、没有明确标准的领域,如艺术创作(诗歌、绘画等)、时尚潮流等领域,强化微调的效果可能不太理想,因为这些领域缺乏统一的“正确”答案标准来进行评估和强化学习。
技术复杂性
对于使用者来说,强化微调涉及到一些技术概念和操作,如强化学习算法、评分器的设置、超参数的调整等,有一定的技术门槛。这可能会限制一些没有技术背景的用户进行有效的模型定制。例如一些小型企业或者非技术类的研究人员可能在使用强化微调技术时遇到困难,需要额外的技术支持或者培训。