迟到的 Manus 观察,与阴晴难测的 Agent 的未来

     分类 [产品经理]
2025/3/28 10:14:40 浏览量  1427 喜欢  29
导读:Manus 火的那几天,恰好在有知有行工作,忙死了。直到这个话题都过气了,才想为此记录一些想法。

迟到的 Manus 观察,与阴晴难测的 Agent 的未来

Manus 火的那几天,恰好在有知有行工作,忙死了。直到这个话题都过气了,才想为此记录一些想法。未必对,作为当下的一个思考切片。

首先,Manus 在工程上对 Agent 有着优秀的创新:

  • 将任务拆解为 todo 的能力

  • 确保每一个 todo 都能正确执行,稳定衔接的能力

  • 与互联网世界对接与操作的能力

  • 中途打断并修正 todo 的能力

我自己使用 Manus 的案例,和观察犬校同学使用的案例,有惊艳的表现,有刻板的表现,也有笨拙的表现。

惊艳的表现主要在于拆解 todo——来自于大模型基座的能力提升。推理的逻辑之缜密,思考之全面,更在 DeepSeek 之上。

刻板的表现主要在于机械执行 todo,稍微需要「背景信息 + 灵活执行」的环节就歇菜了。因为无从得知背景信息,灵活执行又受限于 “需求方讲不清楚”。

笨拙的表现同样在于执行 todo,看上去并不是 Agent 的问题,而是通用基座的智力不足以完成某些垂直任务。这很正常。

我用 Manus 做了一份英国两年多次签证攻略(明年会多次前往英国),第一反应是被震了一下,就像面对一个专业的签证顾问,把我可能面对的问题一一回答清楚。特别有逻辑,特别有条理。

缺点也很明显:整整 13 页的 PDF ,结构过于完整,信息量过于庞大,我他妈直接看懵了,天旋地转。

大模型基座也好,Agent 也好,目前无法跨越的逻辑硬伤是:AI 无法向你提问。

受限于 “提问” 的短板,大模型并不知道我对英国两年多次签证的背景信息和个性化需求。针对我的模糊询问,Manus 给了我一份 13 页,几千字的 PDF,覆盖了 AI 能想到的一切场景。

感谢,但我无法从 13 页 PDF 中快速理解和找到感兴趣的部分。

事实上我看得头晕脑胀,天旋地转,交付结果对我来说更像是实用价值不高的炫技。但因为缺乏对英国签证的了解,我也不知道如何精确提问,相当于不知道如何面向大模型拆分与组织任务。

这时,就需要一个坐在我对面的人类专家,他很会抓重点,不断地问我问题,追问,打断并追问,拿到他想了解的背景信息,然后才能给出我感兴趣的专业回答。

在这场交流中,控场的是专家而不是我。控场的目的是高效率了解必要的背景信息,搞明白用户的个性化需求。只有了解这些关键信息之后,才有回答的效率。

对此一无所知的大模型,大而全的回答完全没有效率。

在我试图解决这个问题的时候:

  • 即便我不断地打断输出,重新输入,面向 AI 的信息输入密度也远低于面对面的真人咨询

  • 当我打字输入时,即便我的表达能力强悍,一时间也比较难组织文字,完整/准确地描述需求

这不是 Manus 的问题,是大模型整体面对的问题。人类低下的输入带宽严重压低了大模型的天花板。

就英国两年多次签证这个案例而言,我的背景信息输入是不完整的(小白无法完整/准确地描述需求),而 Manus 一次性给出 13 页 PPT,将沟通成本提高到了我无法承受的地步。虽然逻辑缜密,思考全面,最终的效果反而不如 DeepSeek——因为 DeepSeek 的一次性输出更少,我更容易理解,也就更容易追问。

简单来说,总得有人多次提问。

  • 或者是专家方(人类专家&大模型)多次提问,获取关键信息

  • 或者是咨询方多次提问,追问专家获得个性化的解答

就这一点而言,由于 AI 提问能力太差,无法像人类专家一样,在 “追问” 与 “抓重点” 的过程中,获取完整/准确的关键信息,理解我的个性化需求,也就不可能定制化地交付回答,降低我的阅读理解成本。

毕竟我是提问题,不是查论文。

而我面对 13 页 PPT,一时语塞,作为签证小白,我其实也失去了追问的意愿,宁肯去淘宝找个签证专家花几十块钱聊 15 分钟。

毕竟我是提问题,不是查论文。

干扰大模型成为专家的,不仅仅是大模型的智力,还包括人类与大模型沟通的效率。人类互相之间相似的沟通带宽,是大模型替代人类专家的鸿沟。

后来,公司同事用 Manus 做了另一件事,根据互联网上可查询的有知有行的投资价值观,设计「基金详情页」。

结果和英国两年多次签证一毛一样。

Manus 给出了一份大而全的基金详情页框架,信息巨多,巨长。乍一看很专业,但因为过分冗长,没有取舍,不仅不可用,对我们来说连参考价值都没有。大模型因为不了解上下文,只能给出一份 “过分丰富” 的冗长的回答,覆盖结构的方方面面。

然后我在冗长中眼花缭乱,甚至提不出像样的修改需求……我已经看晕了。即便提出具体需求,我也没法完整地打字表达——这通常是具备共识的同事,在面对面沟通中的口头交流,一旦组织成书面语言就刻板且生硬,有时候甚至难以组织成书面语言。

如果文档这么容易沟通,还要开会干嘛?

这其实也是我之前对文生视频的观点:

大模型创作可以满足模糊意图,但商业作品需要大量精准意图的组织。内容创作的 “精准意图” 恰恰无法用语言精准表达,而是心领神会的同频沟通。

就像 3 月,我和 PM 拍档面对面讨论一个页面的修改,讲着讲着就笑了出来,说这活儿大模型怎么接得了?我俩太默契了,说的很多是别人眼中的黑话,外人根本听不懂我和他在聊什么,互相却能心领神会。我也很难把压缩在黑话里的大量背景信息,翻译成大模型能理解的语言,但我和他就是能心领神会。

语言的边界,也是语言模型的边界。

以上这一系列观点,不仅对 Agent,对大模型本身也同样适用。

因此,虽然 Manus 有不少漂亮的创新,但我对 Agent 整体持悲观态度。任务越复杂,任务背后的背景信息也就越多,而这恰恰是大模型赛道目前的短板。在不了解背景信息的前提下,任务越复杂,交付越模糊,修改越困难,“大而全” 是炫技但不是答案。

换个角度看,可行性强的 Agent 或许和可行性强的大模型赋能一样,由业务与大模型双面专家,面向 AI 拆分单元任务。自己消化任务背景信息,转译为环环相扣的单元任务,交付给 Agent 的任务会比交付给大模型基座的更复杂,提升更多生产力。Agent 不会是普通人的游戏。


内容来自“用思考交换思考”的 PM 思辨社区「犬校」。©2017-2025

 

标签

微信扫一扫,分享到朋友圈

微信公众号

相关推荐