AI与人类“思考”方式存在重大差异
源 / 新财网    文 / 新财网    2025年04月07日 10时20分

  据美国趣味科学网站4月1日报道,我们都知道,人工智能(AI)与人类的思考方式不同,但一项新研究揭示了AI与人类在思考方式上的差异可能会影响AI的决策,从而引发人类也许无法预见的现实后果。

  这项研究于2025年2月发表在《机器学习研究汇刊》上,研究了大语言模型作类比的能力。

  研究人员发现,在面对简单的字母串类比和数字矩阵问题(即填补矩阵中缺失的数字)时,人类都表现良好,但AI的表现(比处理其他任务时)显著下降。

  用基于故事的类比问题测试人类和AI模型的稳健性时,该研究发现,AI模型易受回答顺序效应的影响,即在实验中因处理顺序不同而出现回答差异,而且AI模型使用改述的可能性更大。

  总体而言,这项研究的结论是,AI模型缺乏“零样本”学习的能力,即学习者观察训练期间遇到未见过的样本类别,根据提问预计这些样本属于哪个类别。

  该研究的合著者、荷兰阿姆斯特丹大学神经符号AI研究助理教授玛莎·刘易斯举例说明了面对字母串问题时,AI无法像人类那样进行类比推理。

  刘易斯对记者说:“字母串类比的形式是‘如果abcd指向abce,那么ijkl指向什么?’大多数人类会回答‘ijkm’,而(AI)一般也会给出这个答案。但要是提出另一个问题,‘如果abbcd指向abcd,那么ijkkl指向什么?’人类一般会回答‘ijkl’——规律是去除重复的元素。但AI模型GPT-4往往会在这类问题上给出错误的答案。”

  刘易斯说,人类可以将特定的模式抽象为更普遍的规律,但大语言模型不具备这种能力。她说:“大语言模型擅长识别和匹配模式,但不擅长归纳总结。”

  大多数AI应用在一定程度上依赖于量——可用的训练数据越多,能识别的模式就越多。但刘易斯强调,模式匹配和抽象总结并不是一回事。她补充说:“关键不在于数据里有什么,而在于如何使用数据。”

  该研究的意义重大,例如AI被越来越多地用于法律领域的研究、判例法分析和量刑建议。但是,由于AI作类比的能力较差,它可能无法认识到法律先例该如何适用于略微不同的案件。

  考虑到AI缺乏稳健性可能会影响现实世界的结果,该研究指出,这证明我们需要仔细评估AI系统,不仅要评估其准确性,还要评估其认知能力的稳健性。(编译/胡雪)

网友讨论
还可以输入 200 个字符
热门评论

建议及投诉热线010-85869906

广告刊登热线010-85862238

  • 关注官方微信

  • 关注官方微信

中国人民银行 | 中国银行业监督管理委员会 | 中国保险监督管理委员会 | 中国证券业监督管理委员会 | 路透社 | 华尔街日报 | FT中文网 | 中国互联网金融企业家俱乐部(ECIF) | 工业和信息化部域名信息备案管理系统
Copyright © 2008-2030 北京大白熊网络信息有限公司 京ICP备16038172号-1 all rights reserved本网站所刊部分稿件为网络转载,若有侵权请您及时联系我们,我们会及时删除,本网站对所转载内容不承担任何的责任,请网民对相关内容的真实性自行判断。
账号登录
记住密码
账号注册
账号注册

*昵       称

*输入密码

*确认密码

*姓       名

*电子邮箱

*国家地区

*省       份

*出生年份

*性       别  男          女

*从事职业

*从事行业

请您留下正确的联络方式,以便我们能够及时与您取得联系

*手机号码

填写您要订阅的邮件
  •   我愿意接受有关新财网的新功能或活动的信息
  •   我愿意接受有关其他网站和产品的新功能或活动的信息
  •   我愿意接受第三方服务供应商的特别优惠的信息