的原理就注定它们不会遵守所谓的机器人三大定律。”
“而同样,神经网络下诞生的人工智能,也必然会有一天诞生自我意识。”
“基于墨菲定律,AI诞生后,如果没有足够的监督和约束,发生智械危机的可能性是百分之百,无非只是时间问题而已。”
“尤其现在,更是一个危险的状态。”
“橘子大模型开源后,各个国家和大公司都进入了军备竞赛,英伟达的交货期已经排到了12月!你看一下英伟达这三个月的股价,已经是三个月前的3倍!”
方豫深有同感的点点头。
还好柚子科技提前买了6亿迈元的英伟达股票。
三个义子的私募也全仓了英伟达。
这一波自己和柚子科技加在一起足足赚了十五亿!
不过皮衣黄赚的更多,一个月时间英伟达市值直接从不到五百五十亿干到了一千七百亿,皮衣黄身价从23亿骤增到了70亿!
但他敢减持吗?
我敢,嘿嘿。
等到周芯国际7月底开始流片,就减持!
不怕SEC查内幕交易?
呵呵,10b5-1交易计划了解一下。
这个计划原本是针对公司高管的,允许公司高管提前设定交易计划,在未来的特定时间点进行股票交易,从而避免SEC对内幕交易的指控。
但作为持股股东,同样也可以适用于这个交易计划,只不过很少有股东会这么做罢了。
马斯克看到方豫似乎没有什么反应,不由得皱了皱眉。
“对于神经网络,你我都不是外行,应该很清楚,这玩意儿迟早有一天能诞生出自我意识,只不过是一个概率问题,做的人越多,模型越庞大,碰撞出自我意识的可能性就越大。”
“这种程度的军备竞赛,就像是几十年前的核扩军,稍稍不小心,‘轰’。”
马斯克做了一个爆炸的手势,“人类就灭亡了。”
“毕竟没有任何一种智慧生命,愿意接受智慧远不如自己的另一种生命的统治。”
“现在全世界除了古狗外,其余所有AI研究机构都已经把主要研究方向转向了柚子架构和你开源的橘子大模型。”
“我认为,推开AI大门的柚子科技,有义务在AI安全领域承担更大的责任。”
听到马斯克这么说,方豫颇为诧异的看了看一脸忧色的马斯克,再看看他的精神力和灵光的状态。
这货认真的?
去年倒是听说他在什么座谈里表达过对AI的担心,但你一个亿万富翁资本家,能担心成这样,也是有点奇葩。
这是典型的灾难性思维引发的焦虑症。
没去看看心理医生吗?
不过倒是也容易理解,自己不担心,是因为可以完全掌控大模型的底层法则。
别说橘子大模型还没成为超级人工智能,就算成了超级人工智能,它的规模越庞大,底层法则也会越完善,自己随时都能通过埃瑟朗之核控制和消除任何一个基于柚子框架的大模型。
要是模型仍然是小规模,法则也会相应孱弱,自己的控制力反而没有那么强。
但若自己不知道这一点的话,估计也会悲观得天天及时行乐了吧?
咦?好像和现在也没差多少。
方豫摸了摸下巴:“你是在指责柚子科技不应该开发出人工智能吗?”
“事实上,我们的预算接近三分之一花在对齐上。而且,即使柚子科技没有推开这扇门,也会有其他人推开。”
“就像你说的,墨菲定律,门就在那里,总会有人把它推开。”
马斯克摇摇头:“不,方,我并不是秉承着对抗性思维来和你探讨这件事情,而是希望我们能够找到一条解决AI安全发展的路径,避免最坏结果的发生。”
“那你的方案是什么?听起来,似乎你已经有了可行的方案?”方豫喝了口水,不由得有些好奇。
坦白说,如果不是因为有法则在手和柚子的辅助,他也没有绝对的把握能够确保AI的安全性问题。
这些日子对“神之模型”的研究倒是让他有了一些新想法,但这些想法究竟能不能成功,能不能够确保AI成为人类社会向前发展的助推器而不是大炸弹,还要看实际落地后的效果如何。
现在说起来还是有些太早了。
马斯克犹豫了一下:“我希望,作为目前在AI领域走的最快的企业,柚子科技能够站出来,和我一起呼吁全世界的开发者,暂停所有神经网络训练六个月到一年。”
“利用这个时间,各个企业和国家重新审视目前大模型的安全隐患。并且成立一个由各大公司和国家组成的AI安全委员会,制定出AI发展的安全标准,并将全球AI都纳入安全委员会的管辖范围。”
“只有这样,才能确保人类不会毁在AI手中。”
方豫一听,差点没喷出来。
老大,你做梦呢?
不过想一想,马斯克接触大模型才仅仅两个月的时间,又不像自己一样,有柚子的辅助和“神之模型”能直接提供参考,也只能从限制AI发展的角度来考虑问题。
“你应该和古狗也谈过吧?他们怎么看?”方豫扬了扬眉。
马斯克沉吟:“我和拉里此前曾经是很好的朋友的,但在这方面我们的观点并不相同,他不同意对人工智能加以限制,更不同意放慢研发进度。”
方豫笑了笑:“所以,你说的不具备任何可操作性。即使我同意了你的意见,古狗不同意,其他公司不同意。”
“不提你刚刚说的那个全球性的AI安全组织,只说你前面提到的暂停研发,都是做不到的。”
“毕竟谁也不知道停止研发半年,会不会就被其他不遵守这个共识的企业所超越。”
“古狗不会同意,FB不会同意,那么多的AI研究者都不会同意。”
“而且,就算这些公司都同意了,那些没有丝毫名气,甚至刚刚注册和还没注册的AI初创企业呢?”
“大模型谁都可以训练,谁都可以堆参数,你的想法并没有从根本上降低AI发展带来的风险。”
“在大模型领域,我的预测是,每一年,大模型都会以十倍以上的参数量增长,直到达到人类电力所能提供的极限。”
“没有人会接受,自己一年时间,就落后对手十倍以上的性能差距。”
“我相信迟早会有你说的这样的组织出现,也相信其中会有所有的AI大企业。”
“但绝不会是现在,而是在第一次AI军备竞赛告一段落的时候才会出现。”
“并且,我也不认为这种组织的出现会真正对AI的安全起到多大的作用。”
“这种组织的出现,我认为反而会扩大AI风险。”
“这个所谓的安全组织看似接管了所有的AI风险,但它却不可能有真正降低AI风险的能力,反而约束了组织之外真正有效的AI风险管控措施。”
“
第309章 开个价吧(补昨天的一章6837,今天还会写一章)-->>(第2/3页),请点击下一页继续阅读。