我们科学家首次证实,大模型可以像人类一样“理解”事物
研发家 | 2025-07-03 33

近日,中国科学院自动化研究所等单位的研究人员首次证实,多模态语言模型在训练过程中学会了“理解”事物,这种理解方式与人类非常相似。这一发现为探索人工智能如何“思考”开辟了新的道路,也为未来打造像人类一样“理解”世界的人工智能系统奠定了基础。相关研究成果在线发表在《自然机器智能》杂志上。

人类智力的关键是能够真正“理解”事物。当我们看到“狗”或“苹果”时,我们不仅可以识别它们的外观,如大小、颜色、形状等。,还可以理解它们有什么用,它们能给我们带来什么感受和文化意义。这种全方位的理解是我们认识世界的基础。随着像ChatGPT这样的大模型的快速发展,科学家们开始好奇:他们能从大量的文字和图片中学会像人类一样“理解”事物吗?

传统的人工智能研究侧重于物体识别的准确性,但很少讨论模型是否真正“理解”物体的含义。“目前人工智能可以区分猫狗的图片,但这种‘识别’和人类‘理解’猫狗的本质区别还有待揭示。”中国科学院自动化研究所的论文通信作者何晖光说。

在这项研究中,研究人员借鉴了大脑认知的原理,设计了一个巧妙的实验:让大模型和人类玩“寻找差异”的游戏。实验者会给出三个对象概念(从1854个常见对象中选择),要求选择最不匹配的对象。通过分析高达470万次的判断数据,研究人员首次绘制了大模型“思维导图”——“概念地图”。

何晖光介绍,他们梳理了66个关键视角,代表人工智能如何从海量测试数据中“理解”事物,并给它们取名。研究表明,这些视角很容易解释清楚,与人脑中负责物体加工的区域的神经活动高度一致。更重要的是,能够同时理解文字和图片的多模态模型,“思考”和选择的方式比其他模型更贴近人类。

此外,研究中还有一个有趣的发现。当我们人类做出判断时,我们不仅会看到事物是什么样子的,比如形状和颜色,还会思考它的含义或用途。然而,大模型更依赖于它所学的“文字标签”和抽象概念。“这证明,大模型确实开发了一种有点类似于人类理解世界的方式。”何晖光说。(记者陆成宽)

赞一个

分享:
打开微信扫一扫
33
版权及免责声明:本网站所有文章除标明原创外,均来自网络。登载本文的目的为传播行业信息,内容仅供参考,如有侵权请联系删除。文章版权归原作者及原出处所有。本网拥有对此声明的最终解释权
更多服务
招商合作
请您完善以下信息,我们会尽快与您联系!
论文投稿
参加会议
合作办会
期刊合作
论文辅导
科研绘图
论文翻译润色
论文查重
其他
提交
专家招募
个人信息
联系信息
提交
在线客服
商务合作
专家招募
常见问题
手机端
扫描二维码
与学术大咖共探知识边界
出版支持
翻译服务
润色服务
自助查重
排版校对