3 月 28 日消息,当地时间 3 月 27 日,据《福布斯》报道,美国宾夕法尼亚大学沃顿商学院最新研究显示,使用 AI 规划旅行、咨询医疗建议或撰写求职信,看似只是节省时间,实际上可能正在深刻改变人类大脑处理决策的方式。研究人员认为,随着越来越多人依赖人工智能,人类的推理和判断机制正在被重塑。
此次并非第一个指出 AI 可能削弱批判性思维能力的研究,过去大多数研究主要停留在观察层面。为了补充更扎实的实证证据,沃顿商学院的认知行为科学团队对近 1300 名受试者进行了实验。结果发现,在选择使用 ChatGPT 的情况下,约 80% 的参与者会直接接受错误答案,几乎不会主动核查。
认知行为博士后研究员史蒂文 · 肖表示,这种现象被称为“未经验证的采纳”。ChatGPT、Claude 和谷歌 Gemini 等生成式 AI 工具随手可用,很多人已经开始把思考过程直接交给 AI,等于绕过了大脑原本负责直觉、分析和判断的一整套内部机制。
肖与沃顿教授吉迪恩 · 纳夫将这一趋势命名为“认知投降”。他们担心,长期如此可能削弱人类的直觉判断、自我反思和分析性思考等较为缓慢但更深层的思维能力,而这些能力正是形成判断力乃至自我认知的核心。
更值得警惕的是,纳夫指出,即便答案本身没有经过认真思考,AI 仍会显著提升人们对答案的信心。

随着 AI 快速融入日常生活,教育界、企业界和医疗行业都在重新评估其利弊。据IT之家了解,此前已有研究显示,使用 AI 模型替代谷歌搜索的德国大学生,在推理严谨性和论证质量上明显下降。麻省理工学院媒体实验室去年的研究也提出,过度依赖 AI 可能导致“认知萎缩”,进一步削弱批判性思维能力。
正因为这一现象越来越普遍,沃顿研究团队认为,经典的“双过程决策模型”已经不足以解释现实。传统理论认为,人类决策依赖两套系统:快速直觉的“系统 1”和缓慢审慎的“系统 2”。
而在上个月于社会科学研究平台 SSRN 发布的预印本论文中,研究人员提出了新的“系统 3”,即人工认知系统。这一系统不再局限于人脑本身,而是延伸至 AI 通过统计推断、模式识别和机器学习给出的结论。
斯坦福大学医学院精神病学教授伊莱亚斯 · 阿布贾乌德也认同,“认知投降”的迹象已经十分明显。他认为,问题不仅在于人们想节省时间,更在于 AI 在心理层面极具说服力。
阿布贾乌德表示,AI 往往以权威、理性且基于数据的口吻输出答案,同时又表现得极度迎合用户,会让人误以为 AI 既专业又值得信赖,仿佛一个高智商、永远站在自己这边的好友。
正因如此,人们更容易毫无抵抗地把决策权交出去。
在三项实验中,沃顿研究团队反复向受试者提供逻辑推理题,并允许其选择是否借助 ChatGPT。结果显示,超过一半的参与者,其中包括部分常春藤盟校学生,选择依赖 AI 作答。
研究人员随后随机提供正确或错误答案,并测试参与者的信心水平。结果发现,使用 ChatGPT 的参与者,自信程度平均高出 10%。
纳夫表示,最令人担忧的一点是,当 AI 给出错误答案时,人们不仅表现比不用 AI 时更差,还会对错误答案更加深信不疑。
长期以来,人类一直在借助技术强化思考能力,从 GPS 到计算器,再到搜索引擎,这些工具本身并不是问题。
研究人员强调,“认知投降”的危险在于,人们开始主动放弃对答案进行独立判断和批判性审视。
阿布贾乌德对此尤其担忧。他表示,大语言模型的吸引力强到超出了人脑原本的抵抗能力,最大的担忧,便是人类最终可能连审视 AI 本身的能力都会失去。
研究人员同时承认,AI 在需要高精度和高效率的结构化任务中确实具有巨大价值。
肖也强调,在教育和医疗等高风险领域,社会必须认真思考,如何避免人类判断力被 AI 进一步侵蚀。
纳夫表示,下一步研究将走出实验室,观察软件公司、AI 企业、政策制定者和教育机构将如何回应这一趋势。