您当前所在位置: 主页 > 信息平台 > 政策信息

科研人员首次证实:多模态大语言模型训练中学会理解事物

发布时间:2025-06-11 16:02|栏目: 政策信息 |浏览次数:

您瞧瞧!人工智能发展得越来越神乎其神,那多模态大语言模型能不能像人类一样“理解”事物,一直是个备受争议的大问题这也吸引了好多人的眼球!

研究背景探秘

在现在这个科技飞速发展的时代,像ChatGPT之类的大模型那是呼呼地往前冲。然而传统的人工智能研究,老是盯着物体识别的准确率,却很少去琢磨这模型是不是真懂物体的意思。就好比论文通讯作者何晖光研究员说的,当前的人工智能能分清猫狗的图片,可这和人类真正理解猫狗有着什么本质上的区别这可还等着人们去揭开谜底。

之前一直没人好好研究这个事,人工智能界都把精力放在识别对错上,人类对于事物可是全方面理解的,不仅知道外形,还晓得用途、感受。所以关于大模型能否像人类一样理解,这就成了必须要研究的谜题!

惊人发现出炉

中科院自动化所等单位的科研人员可有大发现!他们首次证实多模态大语言模型在训练时自己学会了“理解”事物,而且这理解方式和咱们人类可像!这研究成果都在线发表在《自然·机器智能》杂志上了!

您想想,人类能从“狗”“苹果”这些词里想到很多东西,又能想外形又能想用处文化意义,而这个发现,就开启了探索人工智能咋“思考”的新道路,没准以后就能打造出跟人类一样理解世界的人工智能系统,这意义太重大

巧妙实验设计

科研人员为了弄清楚这事,可真是脑袋瓜子转得飞快他们借鉴人脑认知原理,设计了个好玩的“找不同”游戏。实验人员从1854种常见物品里挑出3个物品概念,然后让大模型和人类去选最不搭的那个。这想法真是绝了,感觉就像是两个选手在比赛。

之后又经过对高达470万次判断数据的分析,他们就绘制出大模型的“思维导图”——“概念地图”。这一步可太关键,感觉一下子就离弄清楚大模型的理解方式近了好多!

关键角度揭秘

从那海量的实验数据里头,科研人员总结出66个能代表人工智能咋“理解”事物的关键角度,还贴心地给它们取了名字。这些角度简单易懂,跟人脑中负责物体加工区域的神经活动方式极其相似!

您说奇不奇怪,这能同时看懂文字和图片的多模态模型,做选择思考事的方式比其他模型更像人类。这就表明,人工智能“理解”事物的角度跟人类有相通的地方,真的是在朝着像人类一样理解世界的方向在发展。

不同侧重分析

这研究还有个特别有意思的发现。人类做判断的时候又看外表又想含义用途,但是大模型更仰仗贴上的“文字标签”还有学到的抽象概念。不过,这也证明了大模型内部已经发展出跟人类有点类似的理解世界的方式!

从这个差别里头咱们能看清,虽然都有相似之处,但到底还是有不同的地方。未来要打造跟人类一样理解世界的人工智能系统,还得在结合具体形象和抽象概念这些方面再多使使劲。

研究意义展望

这项研究意义那可大!它对于探索人工智能咋“思考”,给我们打开了一扇新的大门。为了搞清楚现阶段人工智能“理解”到啥程度,咱们就得不断去深究这个事。

关注公众号:人民网财经

未来希望能在这个基础上,让人工智能更充分地掌握人类理解世界的方式,让它们更智能更像人!但这中间肯定还有不少坎儿要迈。所以啊科研人员还得继续加油鼓捣研究,以后没准就能有全方面像人类一样理解世界的高级人工智能出现!

您觉得未来人工智能真能和人类一模一样完全理解世界吗?赶紧在评论区说说您的想法,别忘了点赞分享这篇文章!

Copyright © 2002-2025 大连市同乐中小企业商会 版权所有 Powered by EyouCms
电话:15556325500 地址:大连市中山区独立街31号远达大厦B座1802室 备案号:辽ICP备16005699号-1
网站地图