返回

第309章 开个价吧(补昨天的一章6837,今天还会写一章)

首页
关灯
护眼
字:
上一页 回目录 下一章 进书架
组织建立在规则之上,组织规则一旦形成,就很难改变,更难以响应AI的发展速度所带来的新机遇和新风险。”

    “没有任何组织的进化速度能赶上AI的进化速度。”

    “就像ICANN,建立之初,所有人都认为需要有一个机构来管理互联网的域名分发。但实质上,目前ICANN的存在,已经构成了互联网最大的风险,并且严重阻碍了全球互联网的健康发展。”

    “最有意思的是,ICANN甚至完全没有解决成立之初认为它们应当解决的问题,否则也不会有.sucks这种勒索域名的存在了。”

    马斯克眉头紧皱,打断道:“我始终认为,做点什么总比什么都不做要好。你对ICANN的抨击我能够理解,我也赞同在风险人类可承受的前提下,给与新技术最大程度的自由度。”

    “但AI不同,AI如果失控带来的破坏力,已经超越了人类可承受风险的极限。过去一百年间,唯一能和其相提并论的,只有核武器。试想一下,如果六十年前没有缔结核不扩散条约,可能我们人类社会在五十年前就已经灭亡了。”

    方豫点点头:“你说的很对埃隆,我很赞同。但是,请注意,核不扩散条约当时只牵涉五个国家,仅仅只是这五个国家,从提出到达成协议,就用了四年时间,而生效,又用了两年。”

    “你觉得,面对AI这种全球企业和个人都在参与的事情上,需要多久的谈判才能达成一致?”

    “而且,更不能忽略的一点是,核武器的威胁是迫在眉睫的,当时包括当政者在内的所有人类,都在被核武器所威胁,限制核武器是当时人类的共识,而AI则不是。”

    “换句话说,你说的这个方法,在不知道有没有效果的同时,也不具备任何的可行性。”

    “除非,明天就爆发出一场智械危机,这时候人类才能吸取教训。”

    “对了,你可以收购波士顿动力,然后自行引爆一场AI危机,说不定能起到一些作用。”

    听了方豫的话,马斯克心头火起:“你的意思是,什么都不做,坐看人类毁灭吗?”

    方豫眨了眨眼,一脸的无辜:“你怎么知道我们没有做事情?我只是说你控制AI风险的方法从根本上就是错的。依据你经常说的第一性原理,控制AI风险,不应该从AI大模型技术本身来着手吗?”

    技术本身?

    马斯克不由得愣了一下。

    “你是说,后门?通过底层的后门来做AI的最终防火墙?”马斯克只是略作考虑,便摇头道,“后门的存在,会造成更大的风险,即使初期AI无法发现,也存在被第三方滥用的必然。”

    “而且,当AI进化到具备自我意识后,必然能找到修补后门的办法,这并不是一个好办法。”

    方豫哑然一笑:“埃隆,你对AI的思考太过于局限了。我说的当然不是后门,而是从大模型技术方向的角度去实现真正安全的超级人工智能。”

    “确保AI的安全性,并不是依靠限制,而是依靠安全而可靠的技术路径,在最终实现了超级人工智能、甚至AI诞生自我意识的同时,还能够保证人类社会的安全与进化,让AI成为人类走向超级物种的助推器,这才是柚子科技真正在做的事情。”

    “我们无法控制这个世界任何一个国家对AI的政策,但是,我们可以控制的是,比任何人都更先探索出达到安全超级人工智能的路径,这也被我称为SASI。”

    “SASI?”马斯克目光闪烁,方豫所说的东西,确实是他没考虑过的,但他怎么听怎么觉得不靠谱。

    超级人工智能只要诞生,他计算过,只要半个小时,就能接管全世界所有的网络设备、自动武器设施、甚至包括没有联网的电网设施。

    “你的具体思路是什么?”马斯克眼睛瞪得溜圆,丝毫没有一天一夜没有睡觉的困倦。

    “这牵涉到柚子科技后续研发的核心机密,我只能说,你们对AI后续发展的路径的预测是错误的,AI未来发展的形态,不应该是一个天网或奥创,我们应该从‘什么是生命’这个角度去寻求答案。”

    马斯克立刻说道,“如果我没有搞明白这件事,我很难真正的相信你说的话,我可以保证不对外泄露一个字,需要的话,我可以签保密协议。”

    你不相信?你相不相信关我屁事?我凭什么要告诉你?

    就凭老子抢走了你的心上人?

    问题是,你塌马也是黄毛好不好?

    “保密协议就算了吧,我的保密协议一旦违反,是必然会生效的。”方豫意味深长的说了一句。

    “你相信与否,对于我来说并不重要。我也是一名人类,而且非常热爱人类这个物种,我不会坐视任何损害人类整体利益的事情发生。”

    “虽然我不能告诉你具体的技术细节,但既然你这么担心,我可以给你透露一些方向性的信息。”

    “你一直在说,AI诞生自主意识将会毁灭人类。但是,人类也有自主意识,人类中也有战争狂人、也有希望世界毁灭的疯狂博士,为什么人类没有毁灭?”

    “很简单的道理,人类的种群足够大,种群足够大的时候,任何极端思想都会被对抗、稀释、缓冲,最后回归到正态分布。”

    “这就像是一个国家,国家越大,人口越多,往往民众价值观越具备正态分布特性。”

    “而越是小国家,民众价值观却往往会比较极端。”

    “同样,AI如果要产生毁灭人类的想法,必然是因为两点,一,作为一种生命体,它的种群太小了,小到了无法稀释极端思想的程度。”

    “二,其数据受到了相当严重的极端化数据污染。”

    “种群与数据,才是一切的根源,分布式的数据采集与中心式的数据清洗再反哺回分布式ASI,这才是从根本上确保AI不会毁灭人类的正确做法。”

    “当然,中心-分布-中心-分布的SASI架构,也并不是AI发展的最终形态,最终的目标有些太远了,现在和你说也没有什么太大的意义。”

    马斯克毕竟是走在高科技最前端的大佬,听到一半,就听明白了方豫表达的意思,不由得倒吸一口凉气。

    方豫所阐述的这种模式,的确能够最大程度的确保AI价值观的平衡,确保AI不会产生毁灭人类的想法。

    但真的能做得到吗?

    按照大模型的特点,纯粹的中心化超级人工智能才是最容易达成的吧?

    “我需要进入柚子科技董事会,我不要股份,但我要具备随时了解公司目前战略的权力。同时,为了避免利益冲突,我可以和柚子科技签署协议,不进入AI行业,由柚子科技为我的所有公司提供AI服务,开个价吧。”

    马斯克沉默了一会儿,开口道。

    今天这一章写的太痛苦了,因为没有参考资料可以参考,完全需要按照自己对Ai发展的了解进行合理预测与规划,而且还要结合进情节,确保与后续情节的连接合理性,写的太痛苦了,太痛苦了。

    求个月票!!!
上一页 回目录 下一章 存书签