大模型无法创造,就像成功学无法成功
到目前为止,大模型并没有被验证为具备创造力。它具备很强的推理能力,很强的结构化信息处理能力,很强的条理性,甚至一定的模仿能力,这一切都基于逻辑而不是创造力。
之前在犬校聊到为什么大模型不具备(人类的)创造力?我试举一例。
作为蝉游记,氢气球旅行,生辰,一罐,犬岛,慢鸽的创造者,我的创造力是毋庸置疑的。
我有一个创造方面的特质是,当我起心动念创造一个东西时,在画原型或者落笔之前,我内心已经隐隐约约知道它是什么样子了。接下来的落地,都只是不断逼近它在我心中的样子。
在有知有行工作,和交互巨好的 PM 同伴搭档创造时,我会不断给他的交互稿提意见:“不对不对,这里不是这个样子的,对对对,应该是那个样子。” 他也能快速心领意会。
就像是,被创造之物从内心生长了出来,而我一开始已经很清楚,它应该是什么样子,它一直在我心里,直到用手指将其准确地描绘出来。
我曾经认识一个雕塑和绘画都很有天分的女生,她跟我说,她的艺术创作也是这样的,在落笔之前,她已经知道那是什么了,完整的绘画已经存在于内心世界。接下来的每一笔,都只是还原内心世界提前存在的作品。
有意思的是,以上现象仅仅存在于「起心动念创造」。
如果一件事,我没有很强的创造的感觉,而是基于数据与调研的逻辑推演,那么产品设计也好,文章文案也好,我的创作过程和大家没什么两样。脑子里并没有提前生成那个东西,仅仅用逻辑推演出那个东西——同时也全无创造力可言,仅仅是逻辑的组装。
这是我认为大模型不具备(人类的)创造力的原因——如果你自己没有创造力,会认为逻辑可以推演出一切。但我所知道的任何创造力很强的人,都和我相似,不是基于逻辑,而是基于灵感和直觉来完成创造的内核。
在茫茫无限多的排列组合中,怎样的目标,怎样的 Prompt,会让大模型觉得这就是灵感和直觉呢?
这个话题,还可以换另一个角度来诠释。
大模型的创造依赖于人类设定准确的(环环相扣的)目标。从某个角度来理解,也算是一种 CoT。DeepSeek 的爆火正是 CoT+RL 的胜利。
然而富有创造力的人类在创造时,并不是先设定目标,再完成任务。恰恰相反,他会出于直觉先完成任务——事后也能逆向推理出创造性成果的环环相扣的目标——但这并不重要,即便不做复盘也毫无关系。
优秀的创造出于灵感和直觉,并天然符合逻辑。但创造并不直接来自于逻辑推理。
类似于成功学,看再多事后推理的成功学也不能帮助你成功。
这一点,也是我一直不信任 GenAI 内容生态的原因。
如果不依赖人类输入环环相扣的目标,大模型自行组装出富有创造力的目标并实现,概率相当于猴子在某个平行宇宙中敲出莎士比亚全集。这对我来说,类似于前些年对元宇宙和 Web3 的鼓吹。
但人类的创造力并不是先定目标,再逐一实现,而是凭借个性化的创造力,直接输出个性化的结果,这个结果天然符合环环相扣的目标。
因此,人类并不能提前设定环环相扣的复杂目标,大模型也无法自行组装这一系列复杂目标,那么强依赖目标的大模型,直接创造优秀的内容就是天方夜谭。
一个富有创造力的人类,用大模型组装内容,对他来说,效率提升几乎不可能抵消质量损失。 一个缺乏足够创造力的人类,他的内容 sense 很难设计出组装流程的 CoT 和 Prompt。
这一点在目前的文生视频领域淋漓尽致。我在犬校多次说过:专业人士的 AIGC 创作受制于 “大模型的概率原理无法实现精准意图”;而玩得很 high 的非专业人士,他们只是用大模型实现模糊意图,自己并不具备高质量创作必须的精准意图。
除了精准意图之外,专业人士的长篇幅创作依赖于好的内容结构。
逻辑可以推导出刻板的,70 分上限的内容结构。超出 70 分的结构,都与逻辑没什么关联,与想象力&审美有关。结构是个人风格的一部分,个人风格来自于难以解读的隐性信息。
类似的情况是,AI 可以写代码单元,但无法搭建软件结构,同样因为软件结构背后是一大坨隐性信息。对需求与业务的理解,对需求背景和业务伙伴的理解,对过往协作经验的总结,对业务走向的预测,这些复杂的脑回路共同决定软件结构。
平庸的结构无法支撑优秀的作品。
当然,以上论述基于人类的创作习惯,大模型会不会以硅基生态独特的方式,来实现类似于人类创造力的结果呢?这也是目前行业普遍关注的话题。而我觉得,眼见为实。
4、
大模型只能在每次输入后思考一次,思考有限的时间。而人类大脑的默认网络永远在思考,特别是在睡眠时进行狂野的思考。让大模型成为超级 AI 必要的一步,是让它能够无限时地连续思考。
不知道为什么,我想到了《银河系漫游指南》里对终极问题的计算结果 42,以及地球正是为了解读 “42” 这个答案造出来的行星计算机。
内容来自“用思考交换思考”的 PM 思辨社区「犬校」。©2017-2025