DeepMind CEO五到十年AGI落地,企业如何备战智能体经济?2025-3-19 编辑:采编部 来源:互联网
导读:DeepMind CEO哈萨比斯预测AGI将在5-10年内实现,但真正的变革可能来自“拼凑式”智能体协作。本文基于2025年最新技术进展与监管动态,剖析当前AI能力边界,从技术突破、安全风险、企业应用三个维度,为技术决策者提供应对AGI时代的前瞻性行动指南。
2025年12月,在Axios AI+峰会上,当被问及通用人工智能何时到来时,Google DeepMind CEO德米斯·哈萨比斯给出了一个令整个科技圈震动的答案:“我们距离AGI,只差一到两个AlphaGo级别的技术突破。” 这位诺奖得主明确将时间窗口锁定在5到10年内。然而,就在同月,DeepMind的一篇重磅论文却泼下一盆冷水:真正的AGI可能不会以“超级大脑”的形式降临,而是通过成百上千个普通AI智能体的协作,像拼图一样在我们眼皮底下悄然“拼凑”出来。面对这一即将重塑人类智慧边界的变革,企业决策者与技术人员究竟该如何备战? 一、AGI距离落地还有多远?当前系统的四大核心短板尽管模型在多模态理解和推理能力上突飞猛进——斯坦福大学《2025年AI指数报告》显示,AI已在图像分类、竞赛级数学等7项测试中超越人类基准线——但前沿实验室专家一致认为,当前系统要迈向真正的AGI,仍面临若干短期内难以逾越的障碍。英国AI安全研究所(AISI)在2025年10月发布的一份报告中,系统梳理了这些局限性。 1. 缺乏持续学习与长期规划能力哈萨比斯本人坦言,当前大模型最大的短板在于无法“在使用中成长”。它们只能用训练数据一次性学完,无法像人类那样通过与用户的持续互动积累经验。AISI的研究进一步指出,人类在处理需耗时数小时、数天甚至数周的任务时仍保持优势,而AI系统在需要长时间链式推理的场景中表现显著下滑。好消息是,METR研究显示,AI能完成的软件工程任务时长大约每七个月翻一番,按此趋势预测,到2030年模型将有50%的可靠性完成持续一个月的任务。 2. 复杂环境下的可靠性危机实验室的辉煌成绩与现实世界的复杂性之间存在巨大鸿沟。Anthropic进行了一项著名实验“Project Vend”,让其旗舰模型Claude负责运营一台自动售货机,结果令人大跌眼镜:这台由AI掌管的机器并未盈利。这暴露了当前系统在处理突发障碍、多任务优先级的真实场景时的脆弱性。阶跃星辰首席科学家张祥雨更是指出一个残酷事实:在长文本环境下,模型的“智商”会随着上下文长度的增加而快速下降,现有的Transformer架构在8-12万个Token后基本不可用,根本无法支撑需要无限上下文的通用智能体。 3. 缺乏原创性洞察与稳定记忆虽然AI能生成看似合理的科学论文,但AISI的专家访谈表明,这些产出大多流于“炒冷饭”或追求无关紧要的旁支假说,缺乏真正的科学价值。此外,尽管像Gemini这样的模型已在单次对话中展现出“简洁、冷静、有自信”的稳定人格,但这种一致性仅限于单次会话,无法跨对话保持稳定记忆和立场,真正的AGI需要能记住用户长期偏好的记忆网络。 二、通往AGI的两条必经之路:世界模型与智能体系统面对上述短板,哈萨比斯明确指出,单纯扩大LLM规模不会带来AGI,真正的突破将来自两个方向的创新。 首先是“世界模型”。 DeepMind开发的Genie模型已展现出雏形能力——你可以生成一个视频,然后像在游戏中一样在里面走动并保持一分钟的连贯性。这不仅是生成内容,更是让AI开始理解物理世界的运行规律,从看懂画面跃升到推演真实世界。 其次是“智能体系统”。 下一代AI的定位将从“回答问题”转向“完成任务”。这意味着AI需要能自主规划、执行多步骤任务,并根据结果动态调整策略。Gemini的终极愿景正是成为一个嵌入眼镜、生活场景和工作流中的通用助手。 三、“拼凑式”AGI:被忽视的分布式风险就在业界紧盯单一超级模型的突破时,DeepMind在2025年12月发布的《Distributional AGI Safety》论文提出了一个颠覆性观点:AGI更可能以“Patchwork AGI”(拼凑型AGI)的形式出现——即通过成百上千个专业化AI智能体的协作,涌现出超越任何单体的集体智能。 这一场景的实现技术基础已经就绪:Claude Computer Use、GPT Agent等智能体正在快速部署,Anthropic的MCP等智能体间通信协议正成为“AI时代的高速公路”,而经济激励也在推动专业化Agent生态的爆发——对绝大多数企业而言,用昂贵的“全能”超级模型处理简单任务既不经济也不高效。 然而,这种分布式智能带来了全新的安全挑战。DeepMind警告,当前所有AI安全框架都假设AGI是单一实体,因而对多智能体协作可能引发的“系统闪崩”、隐性共谋、责任归属困境几乎毫无准备。例如,多个定价算法完全可以在没有直接通信的情况下,仅通过观察市场信号就学会协同涨价,构成“隐性算法共谋”。 四、备战AGI时代:技术、伦理与市场的三重奏面对即将到来的AGI时代,无论是技术开发者还是企业用户,都需要建立一套系统性的应对框架。 1. 技术创新:从盲目堆参数转向架构突破沐曦股份高级副总裁孙国梁指出,“现在的AI是用工程学在‘反推’基础科学。在数学和脑科学原理突破之前,我们需要靠GPU做大量的工程尝试。” 对于企业而言,这意味着不应盲目迷信模型参数规模,而应关注那些能解决实际场景痛点的架构创新,如解决长文本“智商掉落”问题的非线性RNN架构,或能实现持续学习的在线记忆系统。 2. 监管合规:中国AI伦理审查正式入轨2025年8月,工业和信息化部会同多部委起草了《人工智能科技伦理管理服务办法(试行)(公开征求意见稿)》,正式将AI伦理审查纳入制度化轨道。该办法明确要求在生命健康、人的尊严、公共秩序等五大领域开展AI科技活动必须进行伦理审查,并规定了伦理委员会的设立标准与审查程序。对于企业而言,这意味着在研发和应用AI技术时,必须建立涵盖公平公正、可控可信、透明可解释、责任可追溯的合规体系。 3. 安全设计:为智能体经济构建“受监管的市场”针对分布式智能体的潜在风险,DeepMind提出了一套包含四层防御的纵深模型:
企业若计划部署多智能体系统,应参照上述框架建立内部安全机制,并为每个AI智能体绑定加密身份与质押资产,形成可追溯的问责链。 4. 人才培养:软技能成为核心竞争力多位科技领袖在2025年达成共识:AI时代,软技能变得比以往任何时候都重要。Salesforce首席未来官Peter Schwartz指出,“最重要的技能是同理心,是与人协作的能力”。“AI教母”李飞飞更是直言,她不会雇佣拒绝使用AI工具的工程师。对企业而言,这意味着培训体系需要从单纯的技能传授转向“人机协作”能力培养。 结语哈萨比斯给出的时间表并非空穴来风,而是基于技术进展的工程判断。当中国开源模型DeepSeek-R1登上Nature封面、蚂蚁集团百灵大模型家族首次展出、工信部AI伦理办法公开征求意见,2025年已成为AGI从科幻走入现实的转折之年。正如DeepMind论文所警告的,“竞争窗口正在快速关闭,留给所有人的时间不多了”。无论你是技术开发者、企业决策者还是普通用户,今天的每一个选择,都将决定你在AGI时代的位置。 本文为【广告】 文章出自:互联网,文中内容和观点不代表本网站立场,如有侵权,请您告知,我们将及时处理。 |
||||||||||||