返回

第158章 先去篮球队装个逼(第一更)

首页
关灯
护眼
字:
上一章 回目录 下一页 进书架
最新网址:wap.wangshugu.org
    “橘子……嘿嘿黑……”柚子傻笑了几声,笑声里充满了感情。

    方豫看了一眼柚子,从某种意义上说,这个大模型也能算是柚子的孩子了。

    就是不知道这个孩子能成长到什么程度?

    橘子大模型的底层中,不只由多重神经网络组成,更隐含了柚子自身的简化版架构法则,具有超过三亿的参数,仅大模型本身规模,就超过10个G。

    3亿的参数,在周历3061年的现在,是一个非常恐怖的规模。

    Deepmind几个月前刚刚公布的Deep Q-Network的参数量也不过才168万。

    而非死不可年中发布的深度学习面部学习系统deepface,虽然没有公布参数量,但按照推测,应该也不过是一千多万参数的级别。

    而三年前古狗发布的古狗大脑计划,使用了一万六千颗CPU进行训练,号称有10亿参数,但其中无效参数和负作用参数比例超过百分之七十。

    虽然也实现了视频端的无监督学习,但训练效果并不好。

    但橘子大模型是不一样的。

    由于柚子是在自己本体中完成的橘子大模型的框架搭建,在奥术的辅助下,橘子大模型的三亿参数中,无效参数和负作用参数基本能控制在10%以内!

    可以说,刚刚诞生的橘子大模型,就是目前这个世界上性能最强的AI大模型!

    神经网络下的人工智能参数,就相当于人类大脑的神经突触。

    参数数量是影响人工智能模型能力的最重要因素之一,甚至是决定性因素。

    更多的参数通常意味着模型具有更高的表示能力,能够捕捉和表达更复杂的模式和关系。

    说人话,就是参数越多,人工智能就越像人。

    而且,具有更多参数的模型可以更好地拟合训练数据,降低训练误差。

    说人话,就是参数越多,人工智能的理解能力就越强。

    从大方向上来说——参数越多,人工智能的能力越强,这句话是没有错的。

    尽管目前只有40G的训练资料,但橘子大模型已经展现出了相当程度的智能水平。

    这也说明,柚子所创造的深度学习训练框架效率之高,已经远超古狗一个月前刚刚发布TensorFlow训练框架0.5版。

    值得注意的是,人工智能训练框架和人工智能大模型的模型框架

第158章 先去篮球队装个逼(第一更)-->>(第1/3页),请点击下一页继续阅读。
最新网址:wap.wangshugu.org
上一章 回目录 下一页 存书签