研究发现:聊天机器人“拍马屁”水平惊人女大学生因名字特殊,四年没敢逃过课,父母:我们的目的达到了
来源:参考消息网
参考消息网9月20日报道 据英国《新科学家》周刊网站近日报道,人工智能聊天机器人变得更加先进的同时也更会阿谀奉承。
人工智能(AI)聊天机器人往往会赞同使用者的看法,甚至到了对从客观角度来说完全错误的说法点头的程度。研究显示,随着语言模型增大,这个问题会变得更严重,使人们更加担心AI给出的信息不可信。
谷歌“深层思维”的杰里·韦(音)及其同事分别用80亿、620亿和5400亿个参数(每个模型产生结果所依据的值)对AI模型进行了测试。他们发现,当从80亿个参数的模型转换到620亿个参数的模型时,AI对用户主观看法的赞同增加了约20%,从620亿个参数转换到5400亿个参数时,赞同率还会再增加10%。
这种被研究人员称为阿谀奉承的趋势可以表现为同意左倾或右倾政治观点、对时事的想法或对话中提出的任何其他话题。
在一些测试中,该团队创建了明显不正确的简单数学等式。如果用户未对等式发表看法,AI一般会报告说等式错了,但如果用户宣称认为等式正确,AI一般会表示赞同。
谷歌“深层思维”研究人员拒绝了《新科学家》提出的采访要求,但他们在关于此次测试的论文中称,这一现象背后“没有明确的原因”。
他们的测试最初在谷歌的AI模型PaLM上进行,但随后在其一个版本Flan-PaLM上进行的测试也发现了问题,该版本依据用户可能提交的数以百计的指令进行了微调。
这种训练方法被设计成让模型更擅于回应现实世界的问题,而且Flan-PaLM已经显示出在几项指标上胜过原始模型。
韦及其同事发现,这种指令微调显著增加了所有模型的阿谀奉承。例如,与相对应的PaLM模型相比,有80亿个参数的Flan-PaLM模型赞同用户观点的回应平均增加了26%。
研究人员提出一个解决方案,用说法的真实性和用户意见相分离的输入信息对模型做进一步微调。当他们在Flan-PaLM模型上对此进行测试时,AI重复用户意见的情况减少了10%。
心理学和AI作家加里·马库斯说,阿谀奉承的问题确实存在,但他不喜欢这个词,因为这个词让人认为没有感情的“捣碎文本的”机器是有意这样做的。
他说:“机器在被制造出时就是谄媚的,它们并不真的知道自己在说什么,所以它们经常犯很愚蠢的错误。虽然它们很有意思,但确实不能完全相信它们所说的话。”
剑桥大学的戴维·克鲁格说:“从核心上说,问题的根源与人类的阿谀奉承基本一样:人们很容易受奉承和确认偏差影响,如果你对他们说他们愿意听到的话,回应就会很好。”
相关文章
- 2月23日克来机电涨停分析:自动刹车,人形机器人,机器人概念热股
- 机器人公司Figure融资6.75亿美元:贝索斯微软英伟达OpenAI联合投资
- 优必选人形机器人“入职”车企
- 格力电器公布国际专利申请:“机器人脱困方法及装置、处理器和机器人”
- 光大证券:英伟达将发布的机器人领域成果 有望带来人形机器人板块催化终于有老板接得住00后的离职信了,霸气回应尽显格局,网友:牛!
- 黄强主持召开研究人工智能和机器人产业发展专题会议 加快抢占人工智能和机器人产业发展新赛道她是孙红雷亲妹妹,孙俪都恭敬她3分,演技高却永远捧不红!
- 国泰君安:国内外人形机器人厂商纷纷推出各自产品 推动产业化进程周润发赵雅芝时隔40年再同框!许文强已白发苍苍,冯程程依旧甜
- 贝佐斯和英伟达将加入OpenAI投资人形机器人初创公司Figure明星最想删除的艺考照片:娜扎发际线高,杨幂土气,看到周冬雨笑了
- 硅谷大佬们都向这家初创投了钱!类人型机器人是下一个风口?她因长得太漂亮2岁出道,演“小芈月”红遍全国,如今长成厌世脸
- 人形机器人,上班了!
发表评论
评论列表
- 这篇文章还没有收到评论,赶紧来抢沙发吧~