第94章 显而易见的局限(4 / 4)

他旁边的室友更惨,已经选择放弃治疗,开始在笔记本上画小人了。

“没事,听不懂正常。我怀疑咱们系一半的教授现在也在硬撑。”

确实,中后排的教授们表情各异。

有的频频点头,显然跟上了思路;有的眉头紧皱,努力消化那些新颖的概念;还有的已经在翻看提前打印的论文,试图对照理解了。

姚毅智院士的笔记本已经写了三页。

他偶尔会停下来思考几秒,然后快速写下新的想法。

身后的博士生们就没这么轻松了,一个个如临大敌,拼命想跟上节奏。

“现在看一个具体应用。”

肖宿切换到了“小智”系统的演示界面。

屏幕上出现了那个简洁的对话窗口。

肖宿先输入了一个很简单的水果分类问题,小智在几秒钟的时间里就能够自动完成思考并作出回答。

这看似简单的一幕,却让懂行的人脊背发麻。

聪明的网友可能要问了,这么简单的问答,现在的deepmind、openai等顶尖机构的ai模型都能轻易做到,有什么特别的呢?

答案就在于小智回答肖宿问题的答案,事先并没有在训练数据中明确标注,而是系统通过特征解耦自主“理解”的。

类似openai这样的顶尖模型,其实本质上走的是“记忆匹配+概率推测”的路子,它们之所以能给出正确答案,不过是记住了“吃=减少”“收到=增加”的固定关联,熟记了苹果对应红色、橘子对应橙色、梨对应黄/绿的统计规律,靠着海量训练数据中的样本匹配,找到最贴合问题的回复,如同背会了答题模板,却从未真正理解问题的本质。

它的数据内容多了,回答的答案正确的概率也上升。

但是,又因为它的数据库杂乱的内容太多,导致最后连开发者都无法知道它会给出什么答案,也就是“黑箱”。

这也是有些人工智能会被聪明的网友称作人工智障的原因。

它们的局限是显而易见的。

无法真正拆解问题中的核心特征,更无法建立特征间的独立关联,一旦遇到超出训练样本的场景,比如颜色特殊的水果、复杂的数量组合,就会出现卡顿、判断偏差,甚至混淆不同特征的边界。

但肖宿运用群论实现的自监督解耦框架,彻底打破了这种局限。