切换到宽版
开启辅助访问
登录
立即注册
搜索
搜索
搜索
首页
Portal
论坛
同城
人才网
工具
菲龙网工具
个人中心
关于我们
每日签到
本地新闻
时事评论
华人世界
斯里兰卡资讯
中国新闻
新闻视频
国际新闻
娱乐新闻
科技新闻
菲龙广场
房产网
菲龙速聘
二手交易
便民电话
美食餐厅
旅游签证
物流速运
商品买卖
二手车市场
严选
话费充值
便民电话
贺词页面
瀑布流页
汇率查询
APP下载
每日签到
我的任务
道具商店
每日签到
我的任务
道具商店
更改用户名
关于菲龙网
About US
联系菲龙网
活动回顾
加入我们
本版
用户
菲龙网
»
论坛
›
新闻频道
›
科技新闻
›
从「知题」到「知人」:UserRL让智能体学会「以人为本」 ...
菲龙网编辑部7
有 744 人收听 TA
156107
主题
156124
回复
182606
积分
收听TA
发消息
加好友
本文来自
科技新闻
订阅
|
收藏
(
2953
)
菲龙网编辑部7发布过的帖子
0/23
《许我耀眼》景气指数提升,《兰香如故》网传男主杀青丨剧日报
0/28
新电子榨菜古装下饭喜剧《芬芳喜事》笑疯了,原班人马太对味了!
0/29
上过床、订过婚的男女,分开还能做同事?《许我耀眼》林涛很可疑
0/27
郑州和西安争当“微短剧之都”,成都在一旁默默憋大招
0/21
《震耳欲聋》提醒人们:你可能“聋”,但绝不要“哑”
0/29
内容宇宙、观众留存,《盛夏芬德拉》式短剧正在拼“体系养成”
0/22
《权游》“魔山”演员晒打游戏照片:我爱玩《CS》
0/26
一度要被404的美剧,这题材让人窒息
0/22
成毅和罗云熙新剧要对打,都是古装剧,这下观众要追不过来了!
查看TA的全部帖子>>
从「知题」到「知人」:UserRL让智能体学会「以人为本」
时间:2025-10-9 16:26
0
27
|
复制链接
|
互动交流
显示全部楼层
阅读模式
直达楼层
马上注册,结交更多好友
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
“知人者智,自知者明。”——《道德经》
古人早已洞见:真正的人类智慧,不仅仅在于公式推演、掌握技艺,更是能理解他人、洞察人心。今天的大语言模型已能在代码、数学与工具使用上
出色地完成任务
,然而距离成为真正的
用户伙伴
,它们依旧缺少那份 “知人” 的能力。这主要源于现实交互远比解题更加复杂:
现实交互中,
用户目标常常未在最初完全成形
(underspecification)、而是
在多轮对话中逐步显露
(incrementality)、并且
以含蓄 / 间接的方式表达
(indirectness)。在这种不确定、动态、多目标的语境里,模型不止要会解决用户需求,更要
主动澄清
(clarification)、
持续适配
(adaptation)、
善用工具
(tool-use)
并做出明智的权衡
(decision-making)。
这正是智能体面临的下一个时代课题:
从 “会解题” 迈向 “懂用户”
。而要真正回答这一课题,我们需要全新的动态评测框架与训练机制:不仅能测量模型在交互中的表现,还能驱动其学会在用户不确定与多目标的世界里,问之有道,断之有衡,答之有据。为此,来自 UIUC 与 Salesforce 的研究团队提出了一套系统化方案:
UserBench
—— 首次将 “用户特性” 制度化,构建交互评测环境,用于专门检验大模型是否真正 “懂人”;
UserRL
—— 在 UserBench 及其他标准化 Gym 环境之上,搭建统一的用户交互强化学习框架,并系统探索以用户为驱动的奖励建模。
二者相辅相成,把 “以用户为中心” 从理念落地为
可复现的流程、接口与评测指标
。
UserBench 论文链接:https://arxiv.org/pdf/2507.22034UserBench 代码仓库:https://github.com/SalesforceAIResearch/UserBench
UserRL 论文链接:https://arxiv.org/pdf/2509.19736UserRL 代码仓库:https://github.com/SalesforceAIResearch/UserRL
UserBench
先把 “用户价值” 量化,才能倒逼智能体进化
核心思想
UserBench 的核心出发点是:
真正的智能体价值不在于完成任务本身,而在于是否能够理解用户、服务用户
。不同于传统评测大多进行的 “做题比赛”,其通过刻画三类 “用户特征”,并将它们嵌入到可复现的环境与标准化接口之中,从而把 “用户价值” 从抽象理念转化为
可
量化的研究对象。
1. 设计原则
长期以来,智能体的评测大多集中在
工具调用与任务完成
,但却鲜少触及一个更根本的问题:模型是否真正对齐了
用户的潜在与动态意图
。
UserBench 的设计正是为了解决这一缺口。它把 “用户真实交互三大特征” 作为评测核心:
模糊性
(underspecification):用户目标往往并未完整表达;
渐进性
(incrementality):意图需要在对话中逐步显露;
间接性
(indirectness):用户偏好常常通过隐含线索体现。
在这样的环境里,模型不再是 “照题答题”,而是必须主动追问、澄清约束,并在复杂条件下做出连贯而明智的决策。
UserBench 设计与交互流程示意图
2. 环境与数据构造
UserBench 的标志性设计是
旅行规划任务
,覆盖五个子场景。每个维度都设置了数十条
隐式偏好表述
,如 “行程很紧” 暗含 “直飞 / 少中转”,要求模型在与环境中的模拟用户进行交互时,需要理解用户每一句话背后的语义逻辑。同时,环境中内置了稳定数据库后段,并且搜索返回采用了
混合式选项
进一步增加了模型认知难度:
正确项
:完全满足全部偏好;
错误项
:违背至少一条偏好;
噪声项
:与需求不符或信息缺失。
这使得模型必须学会
过滤噪声、权衡约束
,而非直接机械化地比对。UserBench 同时也进行了数据难度分层,根据用户偏好的复杂程度涵盖了 Easy/Medium/Hard 三档,这种设计让其既保有真实性(场景、语言与需求均来自真实语料指导下的 LLM 用户模拟),又具备实验可控性。
3. 以工具为界面:标准化交互接口
以往针对模型,用户以及环境的三方交互接口复杂。而在文章中,这种复杂交互被抽象为了三类
原语操作
:
Action
:与用户对话(澄清、追问、确认偏好);
Search
:检索数据库(返回混合候选集,模拟真实世界的不完美检索);
Answer
:提交推荐(直接完成用户需求)。
这三类操作高度浓缩了 “理解 — 检索 — 决策” 的链路,使不同任务可以在同一坐标系下被评估与比较。在 UserRL 训练框架中,这个标准化接口被保留并得以进一步拓展,使模型训练也变得可以自由定制化和拓展。
UserBench 上不同模型主要评测结果以及分析指标
4. 评价指标与关键发现
UserBench 的评分体系兼顾结果与过程:
核心指标
:归一化得分。对于每一项旅行需求,在数据库中选到最优解记 1.0;选到正确但次优解记 0.8;其余记 0。在一个问题中用户需求可能会涵盖多个场景(例如交通和酒店住宿),需要被测试模型深入挖掘,理解偏好,再进行判断和抉择。除此之外,文章还提出了若干
过程指标
以进行综合分析:
Valid Search / Action Attempt
:搜索与用户对话操作的有效率;
Preference Elicited
:偏好在用户交互是否被主动 / 被动引出。
主要结论
:模型并非输在 “不会算”,而是常常
没能问对问题、没能挖出关键信息
。换言之,真正的挑战不是推理链,而是
智能体与人的交互中进行有效的 “用户价值” 提炼与捕捉
。
关键发现
单选比多选难很多
:对于每一项旅行需求,如果把模型可回答的次数限制为一次,平均分数
下滑约 40%
,暴露了 “只能给一次答案” 时的
抉择困难
用户偏好揭示率普遍偏低
:主流模型
仅~20% 的答案完全贴合全部用户意图
,即便是强模型,通过主动互动
挖掘到的偏好不到 30%
,显示了当下模型 “主动问对问题” 能力仍然欠缺。
会用工具 ≠ 真懂用户
:模型普遍
有效搜索 > 80%
,但
有效对话显著更低
,说明 “循证澄清” 的难度更高。
难点在 “单一维度的偏好多而复杂”
:当总偏好数固定时,
把偏好更平均地分散到多个旅行需求中更容易
,而
集中在少数需求上会显著拉低分数
,这揭示了本质挑战来自
局部约束的组合复杂度
更多对话轮数≠更好表现
:盲目拉长交互轮数并不能带来收益;同时,
命中答案的 “时效性”
(更早给出有效答案)与整体模型对话质量也并不总是正相关:小模型 “早早猜中” 整体也不如大模型的 “稳扎稳打”。
盲目增加交互轮数并不能增强交互质量
UserRL
把 “能测试” 扩展为 “会训练”
核心思想
UserRL 的出发点相比更加直接:在 UserBench 抽象出的三个原语接口之上,构建一个统一的 gym 环境,把 User-in-th-Loop 的多轮交互转化为一个
可训练的强化学习问题
。这意味着,智能体不再只是完成一次问答,而是要在一个有明确定义的交互环境中,通过多轮对话和工具调用来优化回报。
UserRL 中进行训练的八个用户中心场景设计
1. 八大 Gym Environments:能力光谱的全覆盖
UserRL 对接了八类环境,覆盖从个性化推荐到复杂推理的多维能力:
TravelGym
:侧重个性化偏好挖掘与多目标权衡;
TauGym
:强调工具编排与用户任务实现;
PersuadeGym
:模拟论证与说服场景,关注对抗式对话能力;
TurtleGym
:创造性推理环境(“海龟汤” 游戏);
TelepathyGym
:意图猜测与假设检验;
FunctionGym
:数理模式识别与规律发现;
IntentionGym
:针对真实场景的意图澄清;
SearchGym
:外部知识检索与基于检索的问答。
所有环境都统一在
Action / Search / Answer
的接口下,但考察指标有所差异。这种统一接口 + 多元任务的设计,使得 UserRL 既能横向比较不同方法,又能纵向推动能力迁移。
UserRL 完整训练框架示意图
2. 用户模拟与多轮 Rollout
在每个环境中,用户同样由 LLM 进行模拟,并且可以更换不同用户模拟模型,以实现交互的多样性。UserRL 框架的核心特点包括:
确定性任务状态 + 可验证奖励函数
自然语言互动
,保留了动态模拟用户对话的开放性;
多轮 rollout
,让模型在交中做出策略性的交互选择。
3. 奖励建模:让过程价值变成可学信号
在 UserRL 中,我们重点探索了
双层奖励设计:回合层(Turn-level)以及轨迹层(Trajectory-level)
。在回合层中,我们重新映射 Gym 环境在每一轮中反馈的奖励信号,探索了多种方法以区分不同层的重要性:
Naive
:直接用环境奖励,但往往非常稀疏,在实际环境中并不适合训练。
Equalized
:为所有回合赋予同样的奖励,确保所有铺垫性动作不被忽视。
Reward-to-Go (R2G)
:把未来的预期奖励收益折扣回流,以体现当前轮次对于未来奖励的价值。
Exponential Mapping (EM)
:对原始奖励做非线性映射,让某些小进展也能带来正反馈奖励信号。
在轨迹层中,我们将每一轮的奖励反馈整合成与用户多轮交互的总体得分,以便于后续适配 GRPO 等下游各种 RL 算法,其中我们主要探索了两种整合方式:
Sum
:直接累积每回合的奖励,以衡量整体任务完成度。
R2G
:对早期进展赋予更高价值,更强调任务完成效率。
在实际训练中这两层奖励可以灵活组合以适配不同交互任务。
UserRL 训练主要试验结果
4. 评价指标与关键发现
文章主要采用了
GRPO
算法进行优化:在同一 query 下采样多条轨迹,组内归一化优势,再结合回合与轨迹奖励进行联合优化。同时,在 RL 训练之前,模型预先进行了 SFT 小规模优化,实验发现 SFT 冷启动能够有效帮助后续 RL 训练。
UserRL 用其中的五个 Gym 的训练集数据进行训练,另外三个 Gym 则作为 OOD 环境进行测试。所有主实验均采用 Qwen3-32B 作为用户模拟。不同任务的测试指标不尽相同,但是都是以
准确度
作为衡量基础。
主要结论
:模型的提升并非来自更复杂的算力堆叠,而是得益于
对过程价值的刻画与利用
。换言之,真正的突破点不在于 “终局答案对不对”,而在于能否在多轮交互中
持续累积小进展、尽早对齐用户意图,并把这种过程性价值转化为学习信号
。
关键总结果
回合均等 + 轨迹 Reward-to-Go 在 4B/8B 模型上
最稳健、平均最好
;反观
回合均等 + 轨迹 Sum
最弱,说明
轨迹级计分比回合级细分
更具有决定性价值。经过 UserRL 训练的 Qwen3 在 TravelGym、PersuadeGym、IntentionGym 等
交互型任务上超过强闭源模型
;跨 8 个 gym 的平均也领先闭源对照,体现出 “针对用户交互的 RL 训练” 能实打实提升能力。
SFT 冷启动是必要条件
:先做 SFT 再 RL,能显著避免早期坍塌,部分任务收益超 100%。
用户模拟器选择很关键
:用 GPT-4o 做模拟用户训练的模型下游更强;但 Qwen3-32B 作为开源模拟器具备
性价比高且可迁移
的优势。
SFT 冷启动(左侧对照)与 GPT-4o 作为模拟用户(右侧对照)均能带来更好的 RL 效果
结语:从 “完成任务” 到 “成就用户”
UserBench 提供了一面 “明镜”,让我们得以量化模型是否真正理解用户;UserRL 则把这面镜子变成 “磨刀石”,推动模型在交互中不断迭代,学会在模糊与多目标之间提炼价值。
《论语》有云:“君子和而不同。” 未来的通用智能体,也应当在理解用户多元价值的同时,学会和而不同:既能尊重偏好,又能提供建设性选择;既能满足需求,又能引导更优解。这,才是通向真正通用智能的必要一课。
所有环境、数据以及训练框架已开源,欢迎研究人员探索。
回复
举报
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
点我进行验证
本版积分规则
发表回复
回帖后跳转到最后一页
关闭
站长推荐
/1
【点击免费下载】菲龙网移动APP客户端
【点击免费下载】菲龙网移动APP客户端,新闻/娱乐/生活资讯生活通,带你了解菲律宾多一点!
查看 »
扫码添加微信客服
快速回复
返回列表
返回顶部