切换到宽版
开启辅助访问
登录
立即注册
搜索
搜索
搜索
首页
Portal
论坛
同城
人才网
工具
菲龙网工具
个人中心
关于我们
每日签到
本地新闻
时事评论
华人世界
中国新闻
新闻视频
国际新闻
娱乐新闻
科技新闻
菲龙广场
房产网
菲龙速聘
二手交易
便民电话
美食餐厅
旅游签证
物流速运
商品买卖
二手车市场
严选
话费充值
便民电话
贺词页面
瀑布流页
汇率查询
APP下载
每日签到
我的任务
道具商店
每日签到
我的任务
道具商店
更改用户名
关于菲龙网
About US
联系菲龙网
活动回顾
加入我们
本版
用户
菲龙网
»
论坛
›
新闻频道
›
科技新闻
›
评论:ChatGPT情商很高,但并不适合当搜索引擎 ...
菲龙网编辑部7
有 744 人收听 TA
147021
主题
147038
回复
173128
积分
收听TA
发消息
加好友
本文来自
科技新闻
订阅
|
收藏
(
2953
)
菲龙网编辑部7发布过的帖子
0/85
理财情报局 | 再现0费率!年末银行理财开启“花式”营销,头部理财公司发起自购含权理财
0/84
新希望金融科技曹滔滔:坚守边界,以科技力量助力中小商业银行数字化
0/53
友邦人寿总经理张晓宇升任友邦保险集团区域首席执行官,余宏拟任友邦人寿CEO
0/54
金价连续5日上涨 触及2700美元/盎司
0/59
对话汽车流通协会周伟:银行或将继续在汽车金融市场保持优势
0/61
用户比例达到88%!手机银行已成金融服务主导渠道
0/55
视频 从整个ETF持仓量的变化来看,投资者对黄金的一个热情和策略有哪些调整?
0/58
平安健康险亮相“乌镇峰会” 科技向善助力普惠金融发展
0/52
视频 丨 黄金振荡期,投资者可以采取什么样的交易策略?
查看TA的全部帖子>>
评论:ChatGPT情商很高,但并不适合当搜索引擎
时间:2023-4-27 11:45
0
399
|
复制链接
|
互动交流
显示全部楼层
阅读模式
直达楼层
马上注册,结交更多好友
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
4月26日消息,美媒评论称,目前基于大型语言模型的人工智能工具,例如ChatGPT,更擅长共情而不是提供准确的事实信息。这是因为设计者优先考虑流畅性而非准确性。加之训练数据库中包含大量情感信息,将大型语言模型植入搜索引擎的竞争毫无意义。
以下是翻译内容
今年早些时候,普林斯顿大学计算机科学教授阿尔温德·纳拉亚南(Arvind Narayanan)为自己四岁的女儿开发了支持ChatGPT的语音界面。这不仅是一个实验,更是因为纳拉亚南相信,人工智能机器人有一天会成为女儿生活中的重要组成部分。
纳拉亚南的女儿天生好奇,经常问他有关动物、植物和人体的问题。他认为OpenAI开发的ChatGPT可以提供有用的答案。令他惊讶的是,一旦他告诉系统正在与小孩对话,这款聊天机器人就能表现出无可挑剔的共情能力。
纳拉亚南的女儿问:“灯灭了会怎么样?”
“灯灭了,天就黑了,可能会有点吓人,”ChatGPT用人工合成的声音回答道。“但别担心!”“你可以做很多事情来让自己在黑暗中感到安全舒适。”
ChatGPT随后提出了一些使用夜灯的建议,并最后提醒:“在黑暗中感到有点害怕很正常。”这个解释显然让纳拉亚南的女儿感到很安心。
微软和谷歌正急于使用大型语言模型技术来强化搜索引擎。但有充分的理由认为,相比于提供事实性信息,这项技术更适合作为人们情感上的伴侣。
听起来可能很奇怪。但无论是谷歌的Bard还是微软的新Bing,这种人工智能在用于搜索信息时都出现了一系列尴尬的事实性错误。Bard在首次公开演示时就给出了关于詹姆斯·韦伯太空望远镜的错误信息,而新Bing也搞错了一大堆财务报表数据。
当人工智能聊天机器人用于搜索时,出现事实性错误的代价很高。Replika是一款人工智能应用程序,下载量已经超过500万次。该应用程序的创始人尤金尼亚·库伊达(Eugenia Kuyda)表示,当人工智能被设计成伴侣时,出现错误的代价就要低得多。她说:“这不会影响用户体验,不像搜索,小小错误就会破坏用户对产品的信任。”
谷歌前人工智能研究员玛格丽特·米切尔(Margaret Mitchell)曾与人合作撰写过一篇关于大型语言模型风险的论文。她表示,大型语言模型根本“不适合”作为搜索引擎。这些大型语言模型之所以会出错,是因为训练所用的数据经常包含错误信息,而且模型也没有基本事实来验证所生成的内容。此外,大型语言模型的设计者可能优先考虑生成内容的流畅性,而不是准确性。
这也是这些工具特别擅长迎合用户的原因之一。毕竟,目前大型语言模型都是从网上抓取文本进行训练,其中包括推特和Facebook等社交媒体平台上发布的情绪性内容,以及Reddit和Quora等论坛上的个人心理疏导内容。电影电视剧中的台词、小说中的对话,以及关于情商的研究论文都进入了训练数据库,这使得这些工具更具有同理心。
据报道,一些人把ChatGPT当成机器人治疗师来使用。其中一位说,他们这样做是为了避免成为别人的负担。
为了测试人工智能的共情能力,人们对ChatGPT进行了一次在线情商测试。结果显示,它表现出色,在社会意识、关系管理和自我管理方面都获得了满分,在自我意识方面只是略有差池。
从某种程度上来说,ChatGPT在测试中的表现比一些人还要好。
虽然一台机器能为人们带来共情感受有点不真实,但确实有一定道理。人们天生需要社会联系,人类大脑也有能力反映他人感受,这意味着即使对方没有真正“感受”到我们的想法,我们也能获得一种理解感。人类大脑中的镜像神经元会在我们感受到他人的共情时被激活,给我们带来一种彼此相连的感觉。
当然,共情是一个涉及多方面的概念,要想真正体验到这种感觉,人们还是需要与真正的人进行交流。
伦敦国王学院临床心理学家托马斯·沃德(Thomas Ward)研究了软件在心理治疗中的作用,他警告人们不要想当然地认为,特别是在心理问题很严重的情况下,人工智能可以充分满足人们在心理健康方面的需求。例如,聊天机器人可能无法理解人的情感复杂性。换句话说,ChatGPT很少说“我不知道”,因为它在设计上倾向于自信而不是谨慎回答问题。
人们也不应该把聊天机器人作为发泄情感的习惯性渠道。沃德说:“在将人工智能聊天机器人视为消除孤独方式的世界里,微妙的人际关系,例如拉住手或明白何时说话何时倾听,可能会消失。”
这可能会最终导致更多问题。但就目前而言,人工智能在情感方面的技能至少要比它们掌握的事实更可靠。(辰辰)
延伸阅读
韩总统接见马斯克 称韩国是超级工厂候选地
回复
举报
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
点我进行验证
本版积分规则
发表回复
回帖后跳转到最后一页
关闭
站长推荐
/1
【点击免费下载】菲龙网移动APP客户端
【点击免费下载】菲龙网移动APP客户端,新闻/娱乐/生活资讯生活通,带你了解菲律宾多一点!
查看 »
扫码添加微信客服
快速回复
返回列表
返回顶部