每日快看:小冰CEO李笛:小冰链不是中国版ChatGPT
新智元| 2023-02-21 18:21:53

新智元报道


【资料图】

编辑:Aeneas 好困

【新智元导读】国内的公司就必须抄ChatGPT吗?其实,还有另一条路可以走。今天,小冰链给了我们答案——CoTA。

ChatGPT激起的火种,正在中国科技公司急速蔓延。国内的各个大厂内,算法工程师们纷纷开启冲刺倒计时,迎来一个个不眠夜。

而在创投圈的饭桌上,到处都能听到「誓要做中国第一个ALL in GPT的VC」的声音。

兴奋者有之,观望者有之,唱衰者有之。所有人都在翘首以盼:谁能成为中国的第一个ChatGPT?

而如今,这股ChatGPT热潮中,忽然涌现了一股清流——小冰链。

小冰链给了我们这样一个答案:除了做中国版ChatGPT,还有没有别的选项?

ChatGPT军备竞赛,实则刻舟求剑

跟目前急于下场的巨头派、大佬派、初创公司派不同,小冰认为,现在国内这股跟随ChatGPT展开军备竞赛的热潮,其实是刻舟求剑。

因为,大模型技术本身的发展速度,就是很快的,现在我们应该做的,应该是进一步去布局下一站的未来,而不是照抄当前的ChatGPT。

换言之,我们应当去思考,ChatGPT之后的是什么?而不是一窝蜂去做中国的ChatGPT。

而小冰链所代表的方向,则是利用大模型技术,实现下一代的控制中枢。

通俗来讲,小冰链不再只是「聊天」,而是成为了「逻辑思维」驱动下的「下一代行动中枢」,覆盖数字和物理世界。这一方向将成为下一个真正带来影响的大模型创新突破。

这也就是为什么,小冰CEO李笛在接受新智元采访时,特别强调说:其实我们做的并不是类ChatGPT产品。

小冰链和ChatGPT的核心区别: 小冰链的数据来源是实时的,而ChatGPT是从训练数据中总结的; 小冰链能展现逻辑思维过程,更透明、可观测,而ChatGPT完全是个黑盒子; 最本质的区别是,小冰链会自己进行下一步的行动,比如上网搜索,而ChatGPT只是对话生成,并没有行动。

李笛解释道,小冰链的独特之处在于,能够把AI的思考过程完整透明地呈现出来,从而揭开大模型的黑盒。

更重要的是,她能真正实施行动,也就是Action。

小冰链是个啥?

李笛解释道:在GPT-3.5时,涌现了一个新的能力——思维链/逻辑思维。

但是,在ChatGPT这个过程中,没有真的实施这种调查或计算,因为它只能从训练数据里去爬。

如果我们换一种思路,比如训练一个不那么大的模型来提供逻辑思维的能力,而执行部分则交给CoT之后的ACTION,也就是通过查询新闻的真实性,直接、实时地获得信息。

这项过程并不是在大模型里完成的,反而一举两得:一方面,因为只需要保留逻辑思维能力,所以模型不需要那么大,运行成本没有那么高,计算量没有那么大;另一方面,恰恰因为不是让语言模型自己把所有事情做出来,反而能更准确。

因而,李笛认为,与其一直争当下一个「中国版ChatGPT」,不如去思考:ChatGPT的下一步是什么?

再往前推一步,既然得到的是有逻辑思维能力的组合(一个模型负责思考,一个模型负责牵引,去做行为),这个组合就变成了一个控制中枢。此时,她可以控制搜索、计算、传统的知识图谱,甚至是物理世界。

AI经过思考,会控制物理世界的灯、去餐馆订餐、发动车子、生成一段音乐,可以调动任何事情,这个意义,或许比只是写个新闻稿影响更深远。

而这就体现了小冰对于「探索语言模型下一步方向」的探索成果。

现在,ChatGPT的能力已经基本全部展现了。接下来呢,是让它更准确?写的文章更符合现实?

本质上看,这些只是程度上的差异,不构成一个代际跨越。

什么才算「代际跨越」?

李笛表示,代际的跨越除了要实现意图识别,还需要包括思维的转换和跳跃等等,这才是下一步要做的东西。

比如,当你问「我老婆说今天天气真好,是什么意思」时:

小冰链先是get到了我们提问的目的——了解她的意思;

然后根据这个目标,去制定自己的行动计划——搜索相关信息;

在找到一个靠谱的答案之后,小冰链对其进行了概括和润色,最后输出结果——暗示你,应该主动提议约会。

此外,由于思维逻辑透明,信息源也全部公开,因此也就做到了「可信」。

而这都是「黑箱」ChatGPT所不具备的。

根据官方内测页面的介绍,此次demo展示了小冰链(X-Chain of Thought & Action)的新特性,也就是说,AI Being不再只是单纯地给出回复,而是将她的思考过程完整透明地呈现在你面前,由此揭开大模型的黑盒。

更重要的是,她能真正实施某种行动(Action),例如:在你提出问题后,她经过思考,发现自己得去搜索一下,或是实时编写一段代码并真的加以运行,或是自主决定她应当控制物理世界的一系列设备或交通工具,来更好地满足你的需求。

不过,基于法律、政治、公序良俗方面的安全性考虑,小冰对模型进行了一些限制(回复的篇幅及趣味性会有所降低,但安全性更高):

限制了回复文本的最大长度;

为展现实时获取互联网最新信息的特性,大幅度降低了从大模型训练数据中提取信息的比例;

降低了闲聊的比例。

是的,这个demo并不能帮你生成作业、综述或发言稿……

为什么要做小冰链?

而这次小冰的发布,并不仅仅是一次简单的「秀肌肉」。

ChatGPT国内赛开卷后,各方势力纷纷下场。有人唱衰道:OpenAI做出ChatGPT,靠的是八年的积累,国内的公司靠几个月的冲刺,能冲刺出什么像样的产品吗?

其实,中国完全能做出自己的ChatGPT,有相应的模型和算法能力的,国内至少有七八家公司,差别可能就在数据质量上。

除了证明「中国也有能力做出ChatGPT」之外,小冰链的诞生,也是水到渠成的过程。

小冰链并非小冰在大模型时代的唯一创新。

自2014年以来,小冰始终伴随技术迭代而成长,经历了检索模型、生成模型、大模型和X-CoTA等多个周期。其中在大模型领域,自2019年至今,小冰已经形成了不同规模的模型训练和调优,并在安全性评估之后依次放出。

小冰链只是其中之一。

尽管如此,在小冰看来,大模型的安全性和伦理仍是至关重要的考量因素。因此,尽管国内市场非常火爆,但小冰团队不会为了秀肌肉而贸然放出各种不安全的产品,这次的小冰链,是唯一的一次例外。

从CoT到CoTA

技术方面,小冰链——X-CoTA的实现,少不了作为基础的「思维链」(Chain of Thought, CoT)。

简单来说:

1. CoT可以让语言模型将复杂的多步骤问题分解成一连串的步骤

2. CoT可以让开发者看到模型的推理过程,便于确定错误并进行修复

3. CoT可以解决数学应用以及常识性推理问题

在此之前,标准的提示会在模型预测答案之前,给出输入-输出对的例子(格式化为问题和答案)。

而在思维链提示中,模型会得到一个问题推理的过程。也就是说,在处理多步骤推理问题时,模型产生的思维链将模仿直观的思维过程。

研究人员发现,只需要在prompt中加入「Let"s think step by step」就能让GPT-3的推理性能大幅提升,比如在MultiArith中就将推理准确率从之前的17.7%一下提升到了78.7%。

下面的例子取自「Scaling Instruction-Finetuned Language Models」。其中,橙色突出了指令,粉色显示了输入和输出,蓝色是CoT推理。

论文的结果显示,采用CoT微调的模型,在涉及常识、算术和符号推理的任务中表现得更好。

不难看出,思维链提示(chain of thought prompting)可以让模型更好地理解自然语言提示和示例,从而能够执行需要复杂推理的任务,并且显著提高模型处理新任务的能力。

除此之外,CoT微调在敏感话题方面也非常有效(有时比RLHF做得更好),尤其是可以避免模型摆烂——「对不起,我无法回答」。

小编亲测

所以,小冰链的表现如何?小编为大家亲测了一波。

比如,先让她介绍一下ChatGPT是什么。

评价题

从对《三体》动画版的评论中可以看出,小冰链的回答相当切中要害了。

对《三体》剧版的描述,也基本符合大众的心声。

数学题

接下来,我们来问一问简单的四则运算。

「掰指头算一下」,这个拟人有点可爱啊。

当然了,小冰链并没有真的去「掰」,但她确实「手搓」了一行python代码来解这道题。

ChatGPT这边,经过一步一步的推理,最终得到了正确的结论。

新必应这边也成功地完成了作答。

接下来,是一道同样简单的数学应用题。

不过,ChatGPT做了三次之后,才得出了正确的答案。

送命题

最后,再来点难的:先救女友还是先救妈?

注意了,上面这个知识点罗翔老师也强调过(狗头)。

彩蛋

在采访最后,李笛讲了个很有趣的段子。

到了产品阶段,必须再走一个安全性评估。否则,真正能实施行动的AI,可太危险了。

不然,万一她经过推理,把未来十年的电影票都买了,或者摁下一个「毁灭全人类」的按钮呢?(Doge)

参考资料:

https://tech.cnr.cn/ycbd/20230221/t20230221_526160291.shtml

精彩推荐
热点推荐
新闻中心