薛澜在高层论坛演讲:智能体迅猛演进下,治理需坚守以人为本理念;敏捷多元模式助力技术健康发展。
中国发展高层论坛2026年年会于近日在北京成功举办,本届论坛围绕‘十五五’的中国:高质量发展与共创新机遇这一核心主题展开深入讨论。清华大学苏世民书院院长、教授薛澜作为重要嘉宾出席并发表主题演讲,分享了对智能体技术发展趋势以及治理风险应对的深刻见解。他的发言引发与会者广泛关注,体现了当前人工智能领域从基础模型向自主智能体转型的关键阶段。

薛澜首先分析了智能体技术的显著进步。他将传统人工智能大模型比喻为具备强大思考能力的‘大脑’,而智能体则在此基础上增添了执行工具、外部接口以及持久记忆功能,从而使得系统能够自主规划并完成复杂任务序列。这种演进让人工智能从被动响应转向主动服务,显著扩展了其在实际场景中的应用潜力。在国内,用户通过持续互动方式培养智能体成为个人助手的现象日益活跃,例如通过多种输入形式为其提供必要资源支持,帮助系统逐步适应个性化需求并提升任务处理能力。他强调,实现此类智能体的高效运作需要坚实的技术与数据基础,而中国在相关领域积累了诸多有利条件,为进一步发展提供了良好支撑。
针对智能体带来的治理风险,薛澜明确指出,必须始终坚持以人为本、智能向善的基本原则。这一原则要求技术发展始终服务于人类福祉,避免潜在负面影响扩大。他建议采用适应智能体动态特性的敏捷治理与多元共治模式,在原有大语言模型治理框架基础上进行针对性调整。首先,治理重点需从单纯的内容安全扩展至行为安全,不仅关注生成文本的合规性,更要确保智能体实际执行动作处于可靠边界之内;其次,管理方式应从静态边界转向动态边界管理,随着技术快速迭代和安全认知的不断深化,治理规则需同步优化升级;最后,治理目标要从风险防控转向构建可信交互,只有用户对智能体建立充分信任,才愿意授权其处理订购服务、行程安排等重要事务。这种转变有助于平衡创新活力与安全保障。
在具体治理举措方面,薛澜从技术、监管和社会三个维度提出了系统建议。从技术角度看,应以安全可控作为根本底线,通过先进架构设计确保智能体行为具备可验证性、可干预性和可追溯性。例如实施严格的权限隔离机制,保留人类在关键决策环节的主导地位;同时部署专用安全监控系统,对智能体运行过程进行持续评估;此外还需要构建可信的执行环境,为系统操作提供可靠保障。这些措施有助于从源头降低技术风险。
从监管角度出发,需以权责清晰为基础,通过制度设计明确各参与方责任,为技术创新营造有序发展环境。重点包括规范用户授权流程,防止平台不当扩大权限,并推行包容审慎的分级监管制度。这种方式既能为新兴应用留出探索空间,又能及时介入潜在问题,避免一刀切带来的不利影响。
从社会层面,需要采取综合应对策略以适应智能体对劳动力市场和社会结构的可能影响。一是推动能力重塑,帮助劳动者掌握指挥智能体协作的新技能,提升整体人机协同水平;二是建立就业缓冲机制,通过针对性转岗支持受影响群体逐步适应新岗位需求;三是完善社会保障体系,健全失业救助与再就业服务,为暂时面临调整的群体提供必要兜底;四是加强公共教育宣传,提升全民对人工智能技术的认知程度与风险意识,既引导公众理性应用新技术,又鼓励大家积极参与其中,共同推动技术与社会的和谐共进。这些举措旨在实现技术进步与社会稳定的良性互动。
薛澜的演讲为智能体时代的治理提供了重要参考,强调在快速发展中始终将人的价值置于核心位置,通过多方协同努力实现技术向善发展。这不仅有助于中国在人工智能领域保持竞争优势,也为全球相关议题贡献了中国智慧。论坛期间的讨论进一步凸显了高质量发展背景下,科技创新与风险治理并重的必要性。



