搜索优化
English
搜索
Copilot
图片
视频
地图
资讯
购物
更多
航班
旅游
酒店
房地产
笔记本
Top stories
Sports
U.S.
Local
World
Science
Technology
Entertainment
Business
More
Politics
过去 30 天
时间不限
过去 1 小时
过去 24 小时
过去 7 天
按时间排序
按相关度排序
腾讯网
3 天
科学家打造“变分偏好学习”技术,将AI偏好辨识准确率提高10% ...
娜塔莎·雅克(Natasha Jaques)是美国华盛顿大学的助理教授。此前在美国麻省理工学院读博期间,她曾开发一种语言模型微调技术,后被用于 OpenAI 使用基于人类反馈强化学习(RLHF,Reinforcement Learning from ...
虎嗅网
5 天
从OpenAI 12天发布会里,我们看到了行业的四个关键问题
历史上第一次有公司会连续开12天的产品发布会——当OpenAI宣布这个决定之后,全球科技圈的期待值被拉满了。但直到发布会接近尾声,“就这?就这?”一位AI从业者如此表达他的观感。这似乎代表了某种主流看法:此次OpenAI发布会,亮点不大、低于预期。前 ...
5 天
OpenAI强化微调技术突破,LeCun的“蛋糕比喻”再度得到验证
近期,人工智能领域发生了一项重大的技术突破:OpenAI宣布其新的强化微调(Reinforcement Fine-Tuning, ...
5 天
OpenAI强化微调的突破:AI大模型革命的下一个阶段
在2016年的NeurIPS会议上,图灵奖得主Yann ...
腾讯网
10 天
OpenAI把强化学习的门槛给打下来?
为期12天的OpenAI,在第二天的时候发布了一个名叫“强化学习微调”的技术。不同于传统的监督微调(SFT),强化微调不仅仅是让模型“记住答案”,而是通过高质量的任务数据与参考答案,强化模型的推理能力,使其在特定领域中学会如何找到正确答案。可以将强化 ...
腾讯网
12 天
图像领域再次与LLM一拍即合!idea撞车OpenAI强化微调,西湖大学发布 ...
新智元报道 编辑:LRST【新智元导读】MAPLE实验室提出通过强化学习优化图像生成模型的去噪过程,使其能以更少的步骤生成高质量图像,在多个图像生成模型上实现了减少推理步骤,还能提高图像质量。OpenAI最近推出了在大语言模型LLM上的强化微调(R ...
51CTO
16 天
被OpenAI带火的强化微调RFT技术解析
OpenAI年终大戏第二场推出了强化微调RFT (Reinforcement Fine-Tuning),它可以让你用几十到几千个的训练数据,为特定的复杂任务构建专家模型,加强了模型如何处理类似问题的推理,微调后的o1-mini得分提高80%,反超o1正式版! 强化微调技术的一种实现方式:首先通过 ...
51CTO
19 天
突破!自然语言强化学习(NLRL):一个可处理语言反馈的强化学习框架
来自伦敦大学学院、上海交通大学、布朗大学、新加坡国立大学和布里斯托大学的联合研究团队提出了全新的自然语言强化学习(Natural Language Reinforcement Learning, NLRL)范式,成功将强化学习的核心概念类比为基于自然语言的形式,开辟了一条通向更智能、更自然 ...
澎湃新闻
20 天
OpenAI直播第二弹!奥特曼2024年最大惊喜竟来自字节?强化微调让o1 ...
OpenAI 12天连播的第二弹,用短短三个单词体现了什么叫「字少事大」——强化微调(Reinforcement Fine-Tuning)。 首先,这是OpenAI第一次将之前仅限自家模型(如GPT-4o和o1系列)使用的强化学习技术,开放给外部开发者。 其次,开发者只需提供最低「几十个」高质量 ...
澎湃新闻
21 天
OpenAI 12连发第2弹:强化微调,少量样本就能训练自己的专家模型
现在,OpenAI 的 12 天计划进入了第 2 天。凌晨两点,我们迎来了一个开发者和研究者更感兴趣的产品:Reinforcement Fine-Tuning,即强化微调。 今天参与发布的四人组是 OpenAI 研究副总裁 Mark Chen、OpenAI 技术员 John Allard 和 Julie Wang、Berkeley Lab 的环境基因组学和系统生物 ...
36氪
21 天
OpenAI 推出“强化微调”计划,让创建专家大模型更简单了 | 最前线
本次直播中,OpenAI带来了新的方案——强化微调(Reinforcement Fine-Tuning)。该方案和功能预计将于2025年正式推出。 强化微调是一种全新的模型定制 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果
反馈