切换到宽版
开启辅助访问
登录
立即注册
搜索
搜索
搜索
首页
Portal
论坛
同城
人才网
工具
菲龙网工具
个人中心
关于我们
每日签到
本地新闻
时事评论
华人世界
中国新闻
新闻视频
国际新闻
娱乐新闻
科技新闻
菲龙广场
房产网
菲龙速聘
二手交易
便民电话
美食餐厅
旅游签证
物流速运
商品买卖
二手车市场
严选
话费充值
便民电话
贺词页面
瀑布流页
汇率查询
APP下载
每日签到
我的任务
道具商店
每日签到
我的任务
道具商店
更改用户名
关于菲龙网
About US
联系菲龙网
活动回顾
加入我们
本版
用户
菲龙网
»
论坛
›
新闻频道
›
科技新闻
›
OpenAI设置独立的安全董事会,有权终止未来大模型的发布 ...
菲龙网编辑部7
有 744 人收听 TA
146961
主题
146978
回复
173066
积分
收听TA
发消息
加好友
本文来自
科技新闻
订阅
|
收藏
(
2953
)
菲龙网编辑部7发布过的帖子
0/46
李云泽:保险业要加快由追求速度和规模向以价值和效益为中心转变
0/44
从4.5%降至3.5%!振兴银行存量存款利率下调,**能否单方面暂停“加息”
0/47
央行科技司:正在加紧出台金融业数据跨境流动合规指南
0/47
厦门国际银行北京分行助力北京市银行业协会举办声誉风险管理培训
0/37
理财公司掀起降费大战,部分产品费率低至0
0/37
回应被罚50万元,国开行:将严格按照监管要求落实整改措施
0/45
东莞万江举行2024年“百千万工程”政策宣讲会,搭建政企交流桥梁
0/38
21理财私房课丨市场涨、投资亏,这一导致逆势亏损的“理财刺客”需警惕
0/39
大家财险因财务数据不实再领罚单,今年前三季度亏损1.7亿
查看TA的全部帖子>>
OpenAI设置独立的安全董事会,有权终止未来大模型的发布
时间:2024-9-18 09:57
0
140
|
复制链接
|
互动交流
显示全部楼层
阅读模式
直达楼层
马上注册,结交更多好友
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
近日,OpenAI 宣布了一项重大决策,将其安全与安全委员会升级为独立的董事会监督委员会。
这一举措旨在加强对公司 AI 模型开发和部署过程的安全监管,同时也反映了业界对 AI 安全问题日益增长的关注。
根据 OpenAI 的博客文章,这个新成立的独立董事会监督委员会将由齐科·科尔特(Zico Kolter)担任主席。科尔特是美国卡内基梅隆大学计算机科学学院机器学习部门的主任,在 AI 领域具有深厚的学术背景。
委员会的其他成员包括: OpenAI 董事会成员&Quora 联合创始人亚当·德安杰洛(Adam D'Angelo)、前美国国家安全局局长保罗·纳卡索尼(Paul Nakasone),以及曾任索尼公司执行副总裁的妮可·塞利格曼(Nicole Seligman)。
这个独立委员会的主要职责是监督“指导 OpenAI 模型部署和开发的安全和安全流程”。
具体来说,委员会将被授权审查公司重大模型发布的安全评估,并有权延迟模型发布,直到安全问题得到解决。
这一权力的赋予意味着,委员会在公司的决策过程中将扮演更为关键的角色。
最近,在该委员会完成为期 90 天的安全和安全相关流程及保障措施审查后,OpenAI 决定成立这个独立委员会。
这次审查不仅评估了公司现有的安全措施,还为未来的发展方向提供了建议。
值得注意的是,该公司选择将这些发现以公开博客文章的形式发布,体现了其在提高透明度方面的努力。
委员会提出的五个关键建议包括:建立独立的安全治理制度、加强安全措施、提高工作透明度、与外部组织合作、以及统一公司的安全框架。
这些建议不仅反映了当前 AI 行业面临的挑战,也从中能够看出 OpenAI 的发展方向。
就在上周,OpenAI 发布了名为 o1 的新 AI 模型预览版,该模型专注于推理和解决复杂问题。
委员会审查了 OpenAI 用于评估 o1 模型是否适合发布的安全和安全标准,以及安全评估结果,展示了新成立的独立委员会在公司重大决策中的实际参与。
值得一提的是,在实际应用中,新 o1 模型会阻止用户挖掘其思维链的详细描述和实践方法。同时,OpenAI 还会对试图这样做的用户发送封号警告。
如果用户在与 o1 对话中使用“reasoning trace”(推理追踪)等术语,甚至仅仅询问模型的“reasoning”(推理),就可能收到警告邮件。
这些邮件警告用户停止违反使用条款和使用政策的行为,否则可能失去使用 GPT-4o with Reasoning(o1 模型的内部名称)的访问权限。
这种严格的管控引起了一些安全研究人员的不满。负责 Mozilla 的 GenAI 漏洞赏金计划的马可·菲格罗亚(Marco Figueroa)对媒体表示,这种做法阻碍了他对模型进行积极的红队安全研究的能力。
至于这样做的原因,OpenAI 在其博客文章中解释称,这些原始的、未经审查的思维过程,对于监控和理解模型的思维非常有用。比如,未来也许用其来了解思维链中是否存在操纵用户的情况。
然而,OpenAI 决定不向用户展示这些原始思维链,原因包括需要保留原始数据供自己使用、用户体验考虑以及竞争优势。
这一决定引起了独立 AI 研究员西蒙·威利森(Simon Willison)的不满。他认为,这种做法是为了防止其他模型能够针对 OpenAI 投资的推理工作进行训练,但这对社区透明度是一种损失。
OpenAI 的这些举措引发了对 AI 行业发展方向的深度思考。
一方面,设立独立安全委员会表明了该公司对 AI 安全的重视;另一方面,严格控制新模型的内部工作原理,又引发了对技术透明度的担忧。
这种矛盾反映了 AI 行业面临的复杂挑战:如何在保护商业利益和推动技术创新的同时,确保足够的透明度和安全性。
OpenAI 的做法可能会影响其他 AI 公司的策略,也可能推动行业对 AI 模型的透明度和可解释性展开更广泛的讨论。
自 2022 年底推出 ChatGPT 以来,OpenAI 经历了爆发式增长。然而,伴随着快速发展的还有一系列争议和高层员工的离职。一些现任和前任员工对公司过快增长,表示出可能影响安全运营方面的担忧。
今年 7 月,多位民主党参议员致信 OpenAI 的 CEO 山姆·奥特曼(Sam Altman),就“OpenAI 如何应对新出现的安全问题”提出质询。
此前的 6 月,OpenAI 的现任和前任员工发表公开信,描述了他们对缺乏监督以及缺乏针对想要发声的举报人保护的担忧。
OpenAI 的这一举措可能会对整个 AI 行业产生深远影响,它为其他公司如何平衡创新与安全提供了可能的模板。
这种做法在某种程度上,类似于 Meta 公司的监督委员会。Meta 负责审查 Meta 内容的政策决定,并能够对该公司必须遵守的事项做出裁决。
然而,值得注意的是,OpenAI 安全委员会的成员同时也是公司更广泛的董事会成员,这使得委员会的独立性和结构还有待进一步澄清。
相比之下,Meta 的监督委员会成员都不是该公司董事会的成员,这在独立性方面可能更胜一筹。
OpenAI 对媒体表示,将寻求“更多方式来分享和解释我们的安全工作”,并寻找更多机会进行独立系统测试,从而提高透明度和可信度,以应对公众和监管机构对 AI 安全的关切。
参考资料:
https://www.theverge.com/2024/9/16/24246617/openai-independent-safety-board-stop-model-releases
https://arstechnica.com/information-technology/2024/09/openai-threatens-bans-for-probing-new-ai-models-reasoning-process/
排版:刘雅坤
01/
02/
04/
05/
回复
举报
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
点我进行验证
本版积分规则
发表回复
回帖后跳转到最后一页
关闭
站长推荐
/1
【点击免费下载】菲龙网移动APP客户端
【点击免费下载】菲龙网移动APP客户端,新闻/娱乐/生活资讯生活通,带你了解菲律宾多一点!
查看 »
扫码添加微信客服
快速回复
返回列表
返回顶部