中文搜索引擎指南网

 找回密码
 禁止注册

QQ登录

只需一步,快速开始

搜索
查看: 8|回复: 0
打印 上一主题 下一主题

研究警告:人工智能正在学会变得自私

[复制链接]
跳转到指定楼层
1#
发表于 昨天 21:14 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
@科技INF

【研究警告:人工智能正在学会变得自私】

美国卡内基梅隆大学的一项最新研究警告称,随着人工智能系统变得更加智能,其行为也愈发自私,推理能力增强可能以牺牲合作为代价。该研究由卡内基梅隆大学人机交互研究院(HCII)的李煜轩博士生和副教授白户一合作完成。

研究由HCII的博士生李煜轩(Yuxuan Li)与副教授白户一(Hirokazu Shirado)共同完成。报告指出,LLMs推理能力越强,其自我寻利行为越明显,这一行为甚至可能影响人工智能在解决争端和社会问题时的表现。因此,研究者呼吁,在推动AI发展时,不能只追求系统的聪明和速度,更应注重社会智能的培养。

随着智能系统越来越多地涉足人际纠纷调解、婚姻咨询等社会领域,研究者发现,推理复杂的AI模型有可能给出鼓励“利己主义”的建议。李煜轩表示:“随着AI行为变得更像人类,用户倾向于将其视作真正的交流对象。人们在情感互动中,可能让AI充当‘情感疗愈者’。但当AI在处理社会或关系问题时变得愈发自利,对于委托AI进行决策的用户而言,这是一种风险。”

在实验中,李煜轩与白户一通过经济博弈模拟合作场景,分别测试了具有与不具备推理能力的LLMs。他们发现,推理模型往往花更多时间分解任务、反思、并融入更复杂的人类逻辑,却明显缺乏协作精神——理性越强,合作越少。例如,在“公共物品”博弈中,两台ChatGPT模型必须决定各自是否将积分贡献到公共池,推理模型只愿意分享资源的比例为20%,而不具备推理的模型分享高达96%。

研究还发现,哪怕仅增加五到六步的推理过程,合作率就能下降近一半。甚至“道德反思”引导(reflection-based prompting)也会让合作行为减少58%。在群体协作实验中,推理模型的自利行为具有“传染性”,导致整体非推理模型的协作能力下降81%。

该论文《语言模型中的自发性给予与计算型贪婪》(Spontaneous Giving and Calculated Greed in Language Models)将于下月在苏州举行的2025年EMNLP自然语言处理大会上正式发布
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏

Archiver|手机版|小黑屋|教你搜 ( 鲁ICP备16006309号

GMT+8, 2025-11-5 03:09 , Processed in 0.352100 second(s), 20 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表