OpenAI 突破传统微调,RFT 技术可精准定制 o4

内容摘要IT之家 5 月 9 日消息,科技媒体 marktechpost 今天(5 月 9 日)发布博文,报道称 OpenAI 公司在其 o4-mini 推理模型上,推出了强化微调技术(Reinforcement Fine-Tuning, 简称 R

联系电话:400-962-3929

IT之家 5 月 9 日消息,科技媒体 marktechpost 今天(5 月 9 日)发布博文,报道称 OpenAI 公司在其 o4-mini 推理模型上,推出了强化微调技术(Reinforcement Fine-Tuning, 简称 RFT),为定制基础模型以适应特定任务带来了突破性工具。

OpenAI 的强化微调技术(RFT)将强化学习原理融入语言模型的微调过程。开发者不再仅依赖标注数据,而是通过设计任务特定的评分函数(grader)来评估模型输出。

这些评分函数根据自定义标准(如准确性、格式或语气)为模型表现打分,模型则通过优化奖励信号逐步学习,生成符合期望的行为。这种方法尤其适合难以定义标准答案的复杂任务,例如医疗解释的措辞优化,开发者可通过程序评估清晰度与完整性,指导模型改进。

o4-mini 是 OpenAI 于 2025 年 4 月发布的一款紧凑型推理模型,支持文本和图像输入,擅长结构化推理和链式思维提示(chain-of-thought prompts)。

通过在 o4-mini 上应用 RFT,OpenAI 为开发者提供了一个轻量但强大的基础模型,适合高风险、领域特定的推理任务,其计算效率高,响应速度快,非常适合实时应用场景。

多家早期采用者已展示 RFT 在 o4-mini 上的潜力,凸显 RFT 在法律、医疗、代码生成等领域的定制化优势,IT之家附上相关案例如下:

Accordance AI 开发税务分析模型,准确率提升 39%;

Ambience Healthcare 优化医疗编码,ICD-10 分配性能提升 12 个百分点;

法律 AI 初创公司 Harvey 提升法律文档引文提取的 F1 分数 20%;

Runloop 改进 Stripe API 代码生成,性能提升 12%;

调度助手 Milo 和内容审核工具 SafetyKit 也分别取得显著进步。

使用 RFT 需完成四步:设计评分函数、准备高质量数据集、通过 OpenAI API 启动训练任务,以及持续评估和优化。

RFT 目前向认证组织开放,训练费用为每小时 100 美元,若使用 GPT-4o 等模型作为评分工具,额外按标准推理费率计费。OpenAI 还推出激励措施,同意共享数据集用于研究的组织可享受 50% 的训练费用折扣。

 
举报 收藏 打赏 评论 0
今日推荐
浙ICP备19001410号-1

免责声明

本网站(以下简称“本站”)提供的内容来源于互联网收集或转载,仅供用户参考,不代表本站立场。本站不对内容的准确性、真实性或合法性承担责任。我们致力于保护知识产权,尊重所有合法权益,但由于互联网内容的开放性,本站无法核实所有资料,请用户自行判断其可靠性。

如您认为本站内容侵犯您的合法权益,请通过电子邮件与我们联系:675867094@qq.com。请提供相关证明材料,以便核实处理。收到投诉后,我们将尽快审查并在必要时采取适当措施(包括但不限于删除侵权内容)。本站内容均为互联网整理汇编,观点仅供参考,本站不承担任何责任。请谨慎决策,如发现涉嫌侵权或违法内容,请及时联系我们,核实后本站将立即处理。感谢您的理解与配合。

合作联系方式

如有合作或其他相关事宜,欢迎通过以下方式与我们联系: