返回

第223章 现在是王者的天下!(四千字第一更)

首页
关灯
护眼
字:
上一章 回目录 下一页 进书架
最新网址:wap.wangshugu.org
    看到橘子大模型的回复,陆偲又敲进去了一行文字。

    “那么,针对这一局棋,你认为你哪一手棋是致胜的关键?而阿法狗的哪一手有问题?”

    橘子大模型只是思考了几秒钟,便给出了回复:“我的关键手分别是第5手、第61手、第119手;而阿法狗在112手的夹我认为是一个致命的失误。”

    “正是这一手夹,让黑棋在中腹获得了喘息的机会。”

    “但是,阿法狗的表现同样令人惊叹,它在第78手的高位肩冲当时让我非常难以判断接下来的局势究竟如何,而在第146手的‘长’体现了阿法狗非凡的韧性,让我非常惊讶。”

    陆偲继续输入:“那么,如果是你,你在那步棋会如何下,才能避免失误?”

    橘子大模型闪了闪:“如果是我,第112手我会下在16J的位置上,继续对黑棋保持压力。”

    这句话一说出来,现场对人工智能稍稍有研究的人全都震惊了。

    这是什么?

    这是结合了上下文的连续回答!

    一般的对话机器人,有时也能回答出不荒腔走板的答案,但几乎都是一个问题一个回答,从不会把一个问题放在整体语境中来考虑。

    但现在,陆偲在对话中并未指出是哪一步棋,更没有指出是谁的失误和什么失误,而橘子大模型就已经明白了陆偲这个问题中所说的失误就是它刚刚在对话中提到的白棋第112手!

    真正的人工智能!

    不是智障!是智能!

    “这并不是事先设定好的回答。”陆偲推了推自己的金丝眼镜,回复高卢新社的记者。

    她严肃的科研脸就算没加“巧言令色”都比华泽成可信。

    外行看热闹,内行看门道,现场的大多数人都只是对橘子大模型像模像样的回答感到好奇,但deepmind的七八个人可是彻头彻尾的内行。

    麻蛋,内行怎么也没看出其中的门道?

    这真的不是预先设定的答案吗?

    alphaGo将MCTS应用于CNN卷积神经网络,构建出了策略网络和价值网络,这种人工智能本质上是垂直型的人工智能,可以应用在特定的领域,比如下棋,再比如量化交易和风险分析方面。

    哈萨比斯的设想,是在解决了围棋问题后,将alphaGo引入到蛋白质的折叠性质预测上,这也是alphaGo比较擅长的方面。

    无论是MCTS还是CNN,对自然语言的处理上效果都不是很好,目前在自然语言处理领域,仍旧是以RNN和LSTM为主流。

    古狗大脑在去年展示了如何基于LSTM来生成对话,但这些对话仍然存在上下文理解不一致的问题。

    也就是说,上一句对话中,它对这个问题还是A理解,当隔了几句对话后,再次出现涉及到第一句对话中的问题时,人工智能对这个问题的理解就变成了B。

    直到现在为止,似乎也没有什么更好的办法来处理这个问题。

    柚子科技又是怎么做到的?

    哈萨比斯和大卫席尔瓦绞尽脑汁,也不知道橘子大模型到底用的是什么样的模型结构。

    要知道,刚刚陆偲所展示的,对于人工智能来说,和下棋是完全是两种不同的能力方向!

    难道说,柚子科技开发出了全新的神经网络结构?

    不不不,此前没有看到过任何新论文出现,应该是他们针对于现有的神经网络做出了一些优化,或者发现了过去没有被注意到的某些论文的作用。

    赛后,一定要约他们团队聊一下,了解一下他们到底是如何做到的。

    这种交流在IT行业内其实很常见,很多伟大的产品创意其实都是在这种交流中产生的。

    包括deepmind自己,原本也是个没有几个人的草台班子,是先搞出了一个人工智能自动玩打砖块的游戏,在一些大学中做了演讲,随后又死皮赖脸的找到彼得蒂尔,彼得蒂尔又给他们介绍了马斯克。

    在马斯克和其他人聊八卦的时候,佩奇听到了,对deepmind产生了兴趣,这才收购了deepmind。

    收购deepmind时,古狗也同样有竞争

第223章 现在是王者的天下!(四千字第一更)-->>(第1/3页),请点击下一页继续阅读。
最新网址:wap.wangshugu.org
上一章 回目录 下一页 存书签