当前位置:首页 > Manus技术交流 > 正文内容

Manus横空出示,AI时代培养人才不是专业导向,而是爱好导向

2周前 (03-18)Manus技术交流74

文 | 刘伟(北京邮电大学人机交互与认知工程实验室主任)

本文由作者参加九派新闻直播九派圆桌《manus爆火,套壳还是创新》讨论时的发言整理而成,发布前经作者审阅

【1】Manus离通用人工智能体差距较远

Manus爆火有多方面因素。

首先,Manus的核心技术在于多智能体系统的协同,它能够动态协调专用大模型,把这些大模型进行统筹调用,最后组织起来。另外,它的用户体验现在看来还不错,在界面和交互设计上的工作做得也较好。

现在,大家都希望大模型能落地,Manus应市场需求做了一些相应的能量释放,比如在人力资源、金融等领域。

当然,Manus也有炒作成分,目前邀请码也是是“一码难求”。如果它的技术能够经得起检验,未来可能走得更远,如果还处在比较初级的阶段,大家也是一时热闹。

事实上,“通用智能体”的概念是大家的一个梦想。我们一直认为以现在的数学和物理学想做到“通用”是特别难的。

因为通用有三个特点:首先是主动性。通用的自主性很强,像人一样,它会有“want”,即知道我想干什么,我想用什么;第二,它的基本的功能是能干很多事,既能炒股,也能筛选简历,还能够围棋等等。最后,一个智能体要有价值观。现在的智能体没有价值观,它的事实和价值不对齐,常会出现所谓的“机器幻觉”、“机器错误”以及“机器欺骗”等东西。它还是被动的token,吃了很多人为的NLP、自然语言里面的一些符号,再相应用tranformer架构处理,吐出相应的输出,这些输出有好有坏。

所以,我们说Manus是通过“规划-执行-验证”这三个独立代理的分工协作实现了任务的分解,工具的调用和动态的修正就是修正全流程的自动化,在简历筛选的过程中,它能够自压缩文件、分析内容生成排名报告,全程无需人参与。

但是,它只有自动化过程是确定的。

Manus的不确定性还体现在它调用的例如deepseek、 claude 这些大模型存在的不确定性。它本身是要按照确定的流程来进行分工拆解的,所以真正的智能里一定有不确定性,而自动化里却包含了确定的流程、确定输入、确定处理、确定的输出、确定反馈,我们叫做自动化过程。

Manus里有很多自动化的成分,但不确定性的成分相对来说比较少。所以我们说Manus离通用人工智能体还差距还比较远。

【2】AI领域,“套壳”和“蒸馏”每天都在进行

Manus光靠卖邀请码是肯定不能回本的。

另外,我个人认为它是一个集成的系统,底层是用别人的东西,门槛相对较低。像 deepseek的门槛就相对高,因为它涉及到算法的优化,还有一些工程困难。

Manus存在很多不确定性和一些没有解决的技术或原理性的问题,比如数据的不完备性、数据的偏差和数据的造假,数据问题它很难摆平。第二个就是算法问题。无论是deepseek、claude,还是Chat GTP也好,他们都是基于transformer架构。

Transform架构本身就是多内存的神经网络系统,这个系统里有两个基本函数,一个是线性函数,一个是激活函数。这两个函数在一起,就会产生一个非线性的复合函数,造成在反向传播过程中,它的权重分配的不可解释性黑盒。它们在基因里面就带着“机器可能会产生错误”,也叫“机器幻觉”。

另外,这个架构在使用过程中有很多噪声干扰,很难屏蔽,在实际工程落地的过程中,它会有各种各样的偏差和误差积累,会造成应用的落地困难。

我觉得Manus是一个集成的开拓者,但它要想在这个领域里面保持领先,难度还是比较大的。

春节期间,很多人说Open AI要告deepseek“蒸馏”的问题。其实,“套壳”和“蒸馏”每天都在进行。学生在“蒸馏”老师,我在“蒸馏”朋友,这也很正常,因为没有前人就没有后人。在大模型领域,或者说AI领域里,这属于比较正常的两个词。

但是,现在的智能体,无论是单智能体还是多智能体,和大模型不太一样。Open AI的奥尔特曼说过一句话,大模型有五个发展阶段,第一个是交互,问他问题,它能回答。第二个是推理,deepseek r1就是一个推理模型,其实GPT 4也是。第三个阶段是调用,我感觉Manus更多的是调用。第四个是创新。第五个涉及到组织。

目前,大多数的实践还停留在较浅的层次,因为深层的多智能体模型之间的协同工作极为困难。我认为,目前能够达到让人为之一振的产品和系统已经相当不易。然而,我们也需要冷静地看待,因为正如之前所说,Manus的门槛相对较低,并不像DeepSeek或OpenAI最初出现时那样耀眼夺目。但是,我们既要保护它,又要清醒地认识到其不足之处,继续前进,做得更好。

【3】机器想取代人,很困难

机器取代人是很困难的,因为人类的智能远远超越机器智能。但是不可否定的是,机器智能可能在某些领域可以帮助人类,比如下棋、做一些蛋白质的结构分析等。

从机理上来说,人的认知和机器的认知是两码事。

人工智能到目前有三个瓶颈,第一个瓶颈是可解释性,它有黑盒、有不透明的部分,我们叫“可解释性不足”,不能举一反三;第二个瓶颈涉及到机器学习和人类学习是两个基本的不同的学习机制,人类的学习能够产生范围不确定的隐性规则和秩序,比如一个小孩学习了一个新词,能够很恰当地用到另外一个领域,机器则可能张冠李戴,不像小孩那么机灵;第三个瓶颈在于人类的常识特别复杂。人类常识包括了生理、心理、物理、数理、伦理、法理,还有好多道理融合在一起,形成了习俗和社会常识。

机器目前的编程是比较单一的,是基于数理化的过程。例如,大模型就只有两个支柱,一个是token把word映射到欧几里得空间,变成一组向量,这个向量包括很多属性,deepseek里面就有6000多个属性,不止是数学属性,还有常识的属性、上下文的属性,还有很多临近附近词之间的关系属性等。这些属性是一个词映射到了一个空间,通过计算向量来反映词和词之间的关系。

另外一个支柱就是attention注意力模型,它有三个参数Q、K、V。这三个参数矩阵,它计算完后得出一个上下文之间的关联度,就是它的统计概率。

如果用这么简单的语言想要将人类的复杂提炼出来,那是在开玩笑。因为人类很多非语言的东西,只可意会不可言传。很多人类自己都没解释清楚的东西,机器更无法找到这个语料。

我不排除机器会产生机器意识,但是机器的意识和人类的意识是两个概念。人类的意识能够更有穿透性,是感性的。目前来看,机器没有伦理,也没有感性,它还是人的一种工具而已,它想取代人还是很困难的。

【4】幻觉问题,单靠Manus解决不了

对于大模型的落地、工程化以及应用来说,解决幻觉这一问题至关重要。否则,谁会愿意使用一个可能产生无法控制的幻觉和错误的系统呢?这将导致生产工程中的错误和失误。所以这个问题不是Manus解决不了,它需要大模型厂商系统思考。

最近,我阅读了一篇来自浙江大学的文章,其中一位副教授利用交互式的与或逻辑关系来解决大模型中的不可解释性问题,即幻觉产生的原因。这种方法使得大模型变得更加透明和可解释,从而可以控制其输出的正确性。他采用的与和或逻辑关系是布尔代数中的基本函数,这种方法在中小规模的神经网络系统中已经显示出良好的效果。

但是在多内层的聚系统,我们称之为聚系统大模型里面,它的效果到目前还不明显。因为还没有大模型让他测试,像DVC科研、GPT等大模型公司没有让他验证这个理论,因此其有效性仍然存疑。

我们还考虑了另一种方法,即 RGA,这是一种检索增强生成的方法。通过比较不同大模型的输出,可以验证某个模型的性能,甚至通过人工检索来得出结论,检查大模型是否出现了幻觉,并纠正事实性或价值性的错误。

目前,我们正在探索一种新的方法,即HRGA,将人机环境整合到系统中,以统一检测潜在问题。在关键的精密工业或安全领域,人的作用至关重要。例如,在核电厂等关键设施中,完全依赖机器监控是不可想象的。因此,我们提出了HRAG,即人机联合的检索增强生成方法,这可能在关键部位或重要环节减少机器幻觉和欺骗的发生。

深入探究的话,我们对transformer架构也持怀疑态度。去年10月左右,英伟达的CEO 黄仁勋进行了一次采访,在采访中,他邀请了transformer架构论文的八位作者中的七位,讨论了这一架构。结果这七位作者一致认为 transformer 架构存在许多缺陷和不足。这表明,transformer 架构可能是产生机器幻觉的根本原因。因此,要想从根本上解决这一问题,必须开发出不同于 transformer 架构的新技术,可能会有新的大模型或智能体出现来解决这一挑战。

【5】AI时代的人才不是专业导向,而是爱好导向

目前,多模态学习和强化学习正成为研究的热点。以deep seek为例,它在推理过程中完全依赖于强化学习,大幅减少了人为的微调和干预。其他一些模型也在强化学习和多模态学习方面投入了大量精力。

多模态学习涉及将文本、语音、图像、视频等多种状态综合处理,类似于人类同时使用视觉、听觉、嗅觉、味觉和触觉。但我想强调的是,目前计算机或人工智能领域的多模态学习主要还是以计算为主,尚未达到人类那种感性的水平。

我个人认为,当前的多模态学习就像盲人摸象,只能看到局部,要么是听觉,要么是视觉,要么是嗅觉,而整合这些能力相对较弱。其次,强化学习似乎有些过度热衷。强化学习的本质是奖惩机制,通过奖励和惩罚来强化或削弱某些行为。然而,人类的强化学习要复杂得多,有时奖励可能意味着抑制,有时惩罚可能意味着鼓励。目前,机器的强化学习还很难掌握这些复杂的概念,它基本上还停留在比较简单的幼年阶段,类似于小孩做对了就奖励,做错了就惩罚。因此,这种强化学习相对薄弱。

人类的学习除了奖惩之外,还包括反复训练以提高能力。目前,虽然多模态和强化学习被使用,但它们采用的还是人工智能领域常用的方法。我认为这些方法不可能颠覆强化学习的惯性,因此多模态学习也不可能有突破性的进展。如果有突破,它将具有独特的价值,它不再是单一训练,而是综合性的训练,这才是真正令人畏惧的。

因此,目前多模态和强化学习的研究,我们都不满意,认为这些研究过于简单,将人类的认知迁移到机器上的成分太少,过于单纯。我们希望有成年人的强化学习和多模态学习机制能够迁移到机器上,这可能是通往通用人工智能的一个途径。

今年我受某单位邀请参加了春节档电影的座谈会,我们讨论了一个非常有趣的话题——最近很火的电影导演都不是电影学院毕业的,比如饺子导演和郭帆导演。我后来发现,卡梅隆导演也不是电影专业毕业的。

我认为,在AI时代的人才基本上不是专业导向,而是爱好导向。西方之所以有不断的创造力,是因他们的物质文明发展到一定程度以后,他们的精神文明、对知识的渴望、创造力喷薄而出。

现在有很多有志青年有理想、有抱负,他们的创劲很足。AI时代要求大家要学会用工具,要善于拜很多老师,尤其是智能的老师。因此教育会发生很大的变化,以前问老师问题是非常困难的,知识点找半天也不知道在哪,但现在太容易了。如果谁用好了AI,无师自通都可以做一个颠覆性的工作出来。所以青年人更应该珍惜这个时代。

【来源:九派新闻】


“Manus横空出示,AI时代培养人才不是专业导向,而是爱好导向” 的相关文章

Manus同名代币爆火 创始人回应从未参与过加密货币计划

Manus同名代币爆火 创始人回应从未参与过加密货币计划

 近日,有媒体报道,一款名为“ManusAI”的虚拟货币于3月9日15时诞生,价格不到1美分,但已实现超200%的涨幅。全球币价网站Coingecko数据显示,多个名为“Manus”的币种价格飙升。 ...

Manus或面临备案监管问题,不排除随Monica“出口转内销”

Manus或面临备案监管问题,不排除随Monica“出口转内销”

关于前几天突然爆火的Manus,笔者又有了新发现。前两天,在《“刷屏”的Manus:真炸裂,还是真营销?》一文中,笔者曾疑惑Manus作为一款纯中国团队打造的产品,最开始官网页面却是纯英文;注册账号和...

Manus没有壁垒:国内多团队极速复刻,开源狂揽7000星,免费可用,思维链公开透明

Manus没有壁垒:国内多团队极速复刻,开源狂揽7000星,免费可用,思维链公开透明

3小时复刻的Manus,到底好不好用?作者 | 陈骏达编辑 | 心缘一夜之间,多款Manus平替出现!智东西3月7日报道,今天,MetaGPT团队用3小时复刻的开源AI Agent产品Open Man...

豆包与Manus,都不会是 AI 消费级应用的最终形态

豆包与Manus,都不会是 AI 消费级应用的最终形态

该是产品经理发力的时候ChatGPT 点燃 AI 话题已经过去两年多,但国内并没有出现统治级别的 AI 应用。甚至可以说,直到今年初围绕 DeepSeek 产生了一系列辐射整个中文互联网的讨论之后,消...

被网友获取运行代码后,Manus终于披露基座模型是哪家

被网友获取运行代码后,Manus终于披露基座模型是哪家

3月10日,通过查找/opt/.manus/下的文件,网友@jianxliao成功获取Manus沙盒运行代码,并据此发现Manus的基座模型。技术上,/opt/是一个标准系统目录,通常用于存放第三方软...

德邦证券:Manus或将推动算力需求 持续看好AIDC产业链

德邦证券:Manus或将推动算力需求 持续看好AIDC产业链

智通财经APP获悉,德邦证券发布研报称,近日,来自中国的创业公司Monica正式对外发布通用型AIAgent产品Manus。国内AI模型进展持续加速,有望加速算力建设,该行认为AIDC及相关产业链将持...