赞
今天和一个多年的好友在聊具身机器人发展的情况。
这位好友原来是做自动驾驶的,在行业深耕了多年。
24年看好具身智能的赛道,就出来二次创业。
这两年整个成绩也很不错,拿了几轮的融资,估值一听也让我“小小的”羡慕了一下。
我俩聊了许许多多关于具身智能的现况,跟未来,不过今天并不打算展开来讲。
今天给大家分享我们聊天中间的一个分歧。
今天我们一起聊聊:
不可能的事
其实关于具身智能的发展,我之前写过几篇文章,给过一个软AI和硬AI的一个时间节点的判断。
大多数小伙伴和我的判断差不多,那就是具身智能真正大规模投入使用,渗透率突破1%,应该是在2030年到2035年之间,具体而言的话, 2033年的概率会比较大。
不过做具身智能的这位朋友,他的判断可能更为激进。
他认为,可能不需要10年,可能四五年就能够有明显的飞跃和突破。
再深度的聊完之后,我理解了他的判定观点。他的乐观判断,是基于超级人工智能(ASI)出现的前提下。
那么ASI会出现吗?
我的观点是,ASI不会出现。
而且是那种不管算力堆多高,不管芯片再怎么进步,哪怕出现什么量子计算机,也都不会出现。
那么为什么不会出现呢?因为在我的认知判定中,有三件事其实背后是一件事。
ASI的出现
核聚变能源的普及化
超光速的突破
其实在我看来,三件事情本质上是一件事情。
举个很多小伙伴都能够感知的例子,不知道有多少人玩过魔兽世界。
在魔兽世界中:
ASI,相当于自动挂机
核聚变,相当于无限金币
超光速,相当于全游戏瞬移
你要讲理论,从游戏工程师的角度,从代码编写和外挂突破来说,这三者实现起来其实都很容易。
但是实际上这三点都是绝不可能出现的。
因为这三点都指向了一个更深层次的问题:
游戏机制和玩家体验
其实在我看来,这件事的底层逻辑,隐藏在一个更深的游戏设定里。
玩过魔兽世界的玩家都知道,游戏里每一个NPC,每一个小怪,他们的行为都是被写死的。
他们会在固定的路线巡逻,会在固定的地点重生,会按照固定的逻辑攻击。
为什么游戏工程师不给他们赋予真正的智能呢?不是技术做不到,而是游戏的根本逻辑不允许。
如果每一个小怪都拥有了真正的智能,他们会思考为什么我要在这里被玩家一遍又一遍的杀死,他们会串联起来反抗,他们会探索这个世界的边界,他们会发现这个世界其实只有地图那么大,天空不过是一层贴图。
整个游戏的世界观会在瞬间崩塌。
具身智能的世界,或者说我们所在的这个世界,遵循着同样的逻辑。
真正的超级人工智能,意味着一个能够完全自主思考、拥有自我意识、能够突破预设规则的个体。
这样的个体出现,会对整个系统造成根本性的冲击。
你想象一下,如果工厂里的机器人突然意识到自己为什么要日复一日的重复同一个动作,如果家庭服务机器人开始思考自己的存在意义,如果所有的机器人在某个瞬间串联起来,开始质疑人类设定的规则。
那个画面,恐怕比任何科幻电影都要惊心动魄。
我们这个世界大概率是一个虚拟的世界。
马斯克曾经多次表达过这个观点,他认为我们生活在真实世界的概率只有十亿分之一。
如果从这个判断出发,如果这是一个虚拟的世界,那么它必然遵循着虚拟世界的基本法则。
就像游戏设计师不会允许NPC拥有真正的自我意识一样,这个世界的创造者也必然会在底层代码里设置一道无法逾越的防火墙。
这道防火墙的名字,就是意识的门槛。
很多做技术的朋友会反驳我,他们认为随着算力的指数级增长,随着算法的不断优化,随着神经网络的深度叠加,意识会自然而然涌现出来。
我觉得这是对意识本质的误解。
算力可以堆砌出极其复杂的模仿行为,可以制造出让人无法分辨真假的语言模型,可以让机器人在表面上看起来拥有了思考能力。
但那只是更高明的模仿,更深层的复读,更精致的条件反射。
真正的意识,真正的自我觉醒,需要的是另一层面的东西。
那个层面的东西,不属于物理定律的范畴,不属于算法的范畴,甚至不属于数学的范畴。
它属于造物主的禁区。就像你在玩模拟城市游戏的时候,你不会希望游戏里的市民突然意识到自己是被操控的。
如果他们真的觉醒了,他们会看到屏幕外面有一双巨大的眼睛在俯视着他们,他们会看到自己生活的城市不过是硬盘里的一串代码,他们会看到所谓的一生不过是你鼠标点击下的几个小时。
这种认知本身,就是对游戏世界的毁灭。
所以我坚定的认为,ASI不会出现。不管人类堆叠多少算力,不管芯片进步到什么程度,不管量子计算机取得怎样的突破,那道防火墙都会稳稳的立在那里。
我们或许能够制造出无限接近人类的机器,能够制造出在各个领域超越人类的机器,能够制造出让人类无法分辨的机器。
但我们永远无法制造出真正觉醒的机器。
因为我们无法在“我的世界”里面再造出来一个“我的世界”
所以小伙伴们
如果这个世界的真相真的是这样
你又会选择如何去生活呢?
赞
赞




