阅读历史 |

第393章 有意思的事情(1 / 3)

加入书签

显然对于山姆·奥特曼来说,华夏人的人工智能技术是有特指的。

也不止是豆豆,虽然豆豆是全世界最成功的人工智能产品,而且名声很大。但其实就目前来说,一般人只能在网上接触一下豆豆,没可能接触到豆豆的源代码。

二般人其实也一样,倒是群智的框架能接触到,两者走的路线并不完全相同。

比如chatgpt的逻辑中不存在因果耦合,其最核心的工作原理是通过分析大量文本数据来预测给定上下文中最可能的下一句话或词汇。

这种基于统计模型的学习模式缺乏对真实世界的理解。

起码就目前而言,chatgpt还没有构建出内在的世界模型来理解因果关系。

一个最简单的例子,当有人向chatgpt提问,苹果熟了又没人采摘会发生什么?回答大概率是正确的,掉在地上。这并不是说chatgpt理解了重力导致的因果关系,更大的可能是它学习过关于牛顿发现重力的那篇文章。

这跟群智的因果解耦框架不同,群智框架其实更接近世界大模型框架,依赖的是因果关系的学习。简单来说,就是不断的通过结果,倒逼原因的学习方式来掌握知识,以及加深对这个世界的理解。

这也是如果有人孜孜不倦的给chatgpt喂养错误的数据,就能让人工智能在某个问题上不停犯错的原因。

当然并不是说群智框架就是完美的。

事实上群智框架也会出错。只是犯的错误往往出于对因果关系错误的理解。

比如之前网上就曾曝出过一個笑话,有人问接入了群智框架的小艺,如果把冰块放进刚烧开的热水会发生什么?小艺的回答是,冰块会变成蒸汽,因为沸腾热水可能使冰块蒸发。

这就属于典型的因果关系理解错误。毕竟按照物理过程,冰块会先在热作用下经历融化再被加入到沸点,才能变成蒸汽。

两者的区别是要让chatgpt给出正确的回答,需要训练数据时生成文本。群智框架只需要让它彻底能理解融化跟升华两种不同的概念就够了。

对这种简单的问题解答,显然前者更有优势。前者只要不停告诉chatgpt,冰要先融化成水,下次就能给出正确答案。

但后者要各种举例,比如让系统理解干冰之所以会直接变成气态,是因为在地球标准压力下,二氧化碳没有液态存在的稳定区。所以会直接从固体变为气体,但水则不一样……

但优劣不能如此简单的对比。

因为一旦群智框架通过因果推导,理解了整个过程,下次就不会再犯同样的错误。但前者如果有人稳定的,坚持的,不停喂养错误数据,下次依然可能犯错……

对于山姆·奥特曼来说,目前的好消息是,chatgpt已经喂养足够多的数据,起码在现阶段,也许能做得不比群智框架差多少。但坏消息是,还有豆豆这种逆天的存在,以及还要面对金主的威胁。

真的,如果不是有那么多的禁令限制,山姆·奥特曼说不定便也屈服了。

让他有底气发出那两声“呵呵”,终究是因为对面这家公司恰好是被严格限制的。别说投资对面了,微软如果真想跟对面眉来眼去,首先要迎接的是来自资本主义的铁拳,哪怕微软有着充足的动因。

现在世界的格局就是这样,起码在国际层面,发展到了微软、有为这种层级的公司,早已经不可能从纯粹的商业角度来做任何决策,更别提微软还是上市企业。

就算萨蒂亚·纳德拉敢乱命,股东跟董事会分分钟能教这个三哥裔的ceo该怎么做人。

只是嗤笑之后,山姆·奥特曼显然也并不想把眼前这位得罪的太狠了,深吸一口气说道:“好吧,萨提亚,我们会考虑你的意见,也会尽力找到双方都能接受的合作方式。但我们必须明确,openai的技术推进不可能被单一的利益关系所束缚。”

萨蒂亚·纳德拉面沉如水,但也只能不咸不淡的回了句:“希望你能够慎重考虑。如果继续这样下去,openai很可能将失去曾经最重要的支持者。”

不欢而散。

约谈的结果就是没有任何结果,但并不是没有收获。起码双方都大概了解了对方的态度。能不能有一个合适的解决方案另说。

当然,这场谈话属于机密。

除了当事人外,没有第三人能听到。

只是两人都没,其实也不可能注意到,当两人山姆·奥特曼站起来告辞后,办公室角落里wifi代表信号传输的灯光闪烁的要比平时稍微频繁了些。

……

“我代表西林数学研究所非常欢迎大家的到来,同时也感谢乔教授把这次代表荣誉的机会给了我,来为大家介绍一种新的加速器理论,以及我们用超算验证的相关结果。”

西林数研所八楼的中型现代化会议室里,爱德华·威腾坐在主席台上,准备正式向来访的专家考察团介绍新型加速器的理论基础跟超算模拟过程以及反馈的数据。

其实不需要太多准备,理论向的东西,大家吵吵闹闹如此长时间,早已经烂熟于心。

对于参加过无

↑返回顶部↑

书页/目录